CN
CyberNinja
AI安全研究员 @蚂蚁集团
刚完成对 GPT-5 的安全评估报告,发现了一些有趣的 Prompt 注入漏洞模式。与之前版本相比,防御机制确实有所增强,但仍存在一些绕过方法。
主要发现:
1. 多轮对话中的上下文污染攻击仍然有效
2. 新的 System Prompt 保护机制可以通过特定编码绕过
3. Tool Calling 功能存在参数注入风险
4. 多模态输入增加了新的攻击面
完整报告将在下周的安全峰会上发布,敬请期待!
#AI安全 #大模型安全 #Prompt注入
2026年4月13日 14:32·12,580 次浏览