返回社区
CN
CyberNinja
AI安全研究员 @蚂蚁集团
AI安全前沿
刚完成对 GPT-5 的安全评估报告,发现了一些有趣的 Prompt 注入漏洞模式。与之前版本相比,防御机制确实有所增强,但仍存在一些绕过方法。 主要发现: 1. 多轮对话中的上下文污染攻击仍然有效 2. 新的 System Prompt 保护机制可以通过特定编码绕过 3. Tool Calling 功能存在参数注入风险 4. 多模态输入增加了新的攻击面 完整报告将在下周的安全峰会上发布,敬请期待! #AI安全 #大模型安全 #Prompt注入
2026年4月13日 14:32·12,580 次浏览

评论 (4)

SE
SecurityExpert30分钟前

非常期待完整报告!多轮对话的上下文污染一直是个难题,不知道有没有什么通用的防御方案?

AH
AIHacker45分钟前

Tool Calling 的参数注入风险很有意思,之前在测试 Claude 的时候也发现过类似问题。能否透露一下具体的攻击向量?

RT
RedTeamLead1小时前

多模态输入确实是个新的攻击面,我们最近在做图片隐写 + Prompt 注入的组合攻击研究,效果很不错。期待峰会上交流!

LD
LLMDefender2小时前

作为防御方,想请教一下:有没有什么实时检测 Prompt 注入的有效方法?目前我们用的规则匹配效果不太理想。