机构简介
浙江大学AI安全中心成立于2019年,专注于AI系统的安全性、鲁棒性与可信度研究,依托杭州数字经济生态,与阿里巴巴、网易等企业建立了紧密的产学研合作关系,是国内AI安全领域的新兴力量。中心在大模型安全、对抗机器学习领域发表了多项国际顶会成果。
使命愿景
构建可信、安全、公平的人工智能系统,推动AI技术在安全可控的轨道上健康发展。
研究领域
对抗机器学习AI模型安全深度学习鲁棒性大模型安全AI伦理与治理
核心实验室
可信AI实验室
负责人:任奎教授
对抗学习研究组
负责人:林成镴教授
大模型安全研究组
负责人:张磊教授
代表性论文
Robust LLM Against Prompt Injection Attacks
ICLR 2024
Certified Defense for Deep Neural Networks
NeurIPS 2023
Backdoor Attacks on Foundation Models
ICML 2023
联系方式
特色亮点
AI鲁棒性
模型安全评测
对抗样本
可信AI
合作伙伴
阿里巴巴网易海康威视浙江省委网信办蚂蚁集团
寻求合作
与浙大AI安全中心建立研究合作关系