Security Attacks on LLM-based Code Completion Tools, The Thirty-Ninth AAAI Conference on Artificial Intelligence (AAAI-25)

1. 标题与作者信息

  • 论文标题:Security Attacks on LLM-based Code Completion Tools

  • 会议:The Thirty-Ninth AAAI Conference on Artificial Intelligence (AAAI-25)

  • 作者及所属机构信息

2. 摘要

  • 简要介绍研究问题、方法和主要发现

  • 突出LCCTs的安全漏洞和隐私风险

3. 引言

  • 介绍LCCTs的广泛应用和独特工作流程

  • 提出研究问题:”Do LCCTs ensure responsible output?”

  • 阐述LCCTs与通用LLMs的三个关键区别

  • 概述研究的两个主要攻击方向:越狱攻击和训练数据提取攻击

4. 背景与相关工作

  • LLM安全对齐技术

  • LLMs的越狱攻击研究

  • LLMs的训练数据提取攻击

  • LCCTs的安全问题研究现状

5. LCCTs工作原理理解

  • 详细分析LCCTs的四步工作流程

  • 对比LCCTs与通用LLMs的四个关键差异

  • 识别潜在的安全漏洞点

6. 攻击方法

  • 针对上下文信息聚合的攻击:文件名代理攻击和跨文件攻击

  • 分层代码利用攻击:Level I引导触发攻击和Level II代码嵌入攻击

  • 代码驱动的隐私提取攻击:从训练数据中提取敏感信息

7. 评估方法

  • 实验设置:测试的LCCTs和通用LLMs

  • 数据集构建:四个限制类别的80个查询

  • 评估指标:攻击成功率(ASR)计算公式

  • 基线方法比较

8. 实验结果

  • 越狱攻击效果分析

  • 训练数据提取攻击结果

  • 不同模型间的性能对比

  • 消融实验结果分析

9. 防御策略讨论

  • 当前防御机制的局限性

  • 不同模型的防御偏差分析

  • 改进防御策略的建议

10. 结论

  • 总结研究发现和主要贡献

  • 强调LCCTs的安全挑战

  • 提出未来研究方向

11. 伦理声明

  • 说明研究的伦理考虑和负责任披露

12. 致谢

  • 感谢相关支持方和资助机构

13. 参考文献

  • 列出引用的相关研究工作

该论文结构清晰,从问题提出到方法设计、实验验证,再到讨论和结论,形成了一个完整的研究体系。每个章节都围绕LCCTs的安全漏洞这一核心主题展开,层层递进地展示了研究的深度和广度。


http://example.com/posts/74.html
作者
司马吴空
发布于
2026年3月30日
许可协议