Security Attacks on LLM-based Code Completion Tools, The Thirty-Ninth AAAI Conference on Artificial Intelligence (AAAI-25)
1. 标题与作者信息
论文标题:Security Attacks on LLM-based Code Completion Tools
会议:The Thirty-Ninth AAAI Conference on Artificial Intelligence (AAAI-25)
作者及所属机构信息
2. 摘要
简要介绍研究问题、方法和主要发现
突出LCCTs的安全漏洞和隐私风险
3. 引言
介绍LCCTs的广泛应用和独特工作流程
提出研究问题:”Do LCCTs ensure responsible output?”
阐述LCCTs与通用LLMs的三个关键区别
概述研究的两个主要攻击方向:越狱攻击和训练数据提取攻击
4. 背景与相关工作
LLM安全对齐技术
LLMs的越狱攻击研究
LLMs的训练数据提取攻击
LCCTs的安全问题研究现状
5. LCCTs工作原理理解
详细分析LCCTs的四步工作流程
对比LCCTs与通用LLMs的四个关键差异
识别潜在的安全漏洞点
6. 攻击方法
针对上下文信息聚合的攻击:文件名代理攻击和跨文件攻击
分层代码利用攻击:Level I引导触发攻击和Level II代码嵌入攻击
代码驱动的隐私提取攻击:从训练数据中提取敏感信息
7. 评估方法
实验设置:测试的LCCTs和通用LLMs
数据集构建:四个限制类别的80个查询
评估指标:攻击成功率(ASR)计算公式
基线方法比较
8. 实验结果
越狱攻击效果分析
训练数据提取攻击结果
不同模型间的性能对比
消融实验结果分析
9. 防御策略讨论
当前防御机制的局限性
不同模型的防御偏差分析
改进防御策略的建议
10. 结论
总结研究发现和主要贡献
强调LCCTs的安全挑战
提出未来研究方向
11. 伦理声明
- 说明研究的伦理考虑和负责任披露
12. 致谢
- 感谢相关支持方和资助机构
13. 参考文献
- 列出引用的相关研究工作
该论文结构清晰,从问题提出到方法设计、实验验证,再到讨论和结论,形成了一个完整的研究体系。每个章节都围绕LCCTs的安全漏洞这一核心主题展开,层层递进地展示了研究的深度和广度。