新闻中心

当前位置: 首页 > 新闻中心 > 学院新闻 > 正文

2025 AI 向善全球峰会|张亚勤:安全(Safety)应该是AI的基础,而非事后补充

来源:       发布时间:2025-07-11

日内瓦当地时间 7 月 10 日上午 10:40,中国工程院外籍院士、清华大学智能产业研究院(AIR)院长张亚勤出席了出席了由联合国(UN)和国际电信联盟(ITU)共同组织的2025 AI 向善(AI for Good)全球峰会“From principles to practice: Governing advanced Al in action”主论坛,探讨人工智能治理。

张亚勤院士重点指出了人工智能治理面临的三大主要问题:

1. 技术快速发展与治理滞后的失衡。他强调,人工智能技术 —— 尤其是生成式 AI 及其在自动驾驶、机器人等物理领域的应用 —— 正以惊人速度迭代,但治理与监管的步伐却相对迟缓。风险的不断放大尚未得到足够完善的监管框架匹配。

2. 全球竞争与责任缺失的矛盾。中国、美国及世界其他地区的企业正陷入激烈的创新 “军备竞赛”。在这一竞争环境下,由于缺乏清晰的责任认定机制和监管工具,安全问题有时未能得到应有的优先考量。

3. AI 监管中的地缘差异。不同国家和地区(如英国、中国、美国)对 AI 安全准则的态度与实施路径存在差异。张亚勤特别提到,中国的治理方式具有显著的开放性与包容性,通过与产业界的紧密协作,共同规范大型模型的数据收集、测试、备案及发布等环节。

针对上述问题,张亚勤院士强调了多项关键解决策略:需为大模型建立分级分类框架,针对前沿大模型制定场景约束与评估体系,在医疗、自动驾驶等高风险领域设立严格标准,并从性能、安全性等多维度进行全面评估;同时通过 ID 实体映射追溯责任主体,像标识广告一样明确 AI 生成的数字人等智能体,将机器人等物理及生物从属智能体映射到具体法人实体,确保问题发生时可追溯责任。此外,安全(Safety)应该是AI的基础,而非事后补充(Safety is the foundation for AI, not an after thought),他呼吁企业、基金会等将大模型投资的 10% 以上用于 AI 风险研究,推动发展与治理、技术与政策、产学研深度融合,既研究符合伦理法律的监管政策以促进国际合作,也在技术层面开发可解释性模型以提升系统安全性。为从根本上规避灾难性风险,需为 AI 设立明确红线与边界,例如禁止 AI 系统在无人类批准的情况下自主复制或改进,杜绝其不当追求权力。最后,还需加强国际沟通合作与协调机制,推动 AI 治理的国际标准化,通过联合实验室、科研项目等促进跨国协作,弥合政策差异,形成全球协同的治理合力。

此次分论坛聚焦于 AI 能力快速发展背景下,行业和监管领域涌现的新治理方法。会议探讨了当前的最佳实践,包括负责任的扩展法则、欧盟的实施经验、自愿性行业框架以及创新监管机制等。演讲者们分享了在管理前沿 AI 发展方面的不同方法,同时也讨论了为快速发展的 AI 系统实施治理措施所面临的实际挑战。


下一条:AIR科研|打造EscapeCraft:用“密室逃脱”挑战多模态大模型的推理智商!

关闭

相关新闻

业务合作:airoffice@air.tsinghua.edu.cn
招生招聘:airhr@air.tsinghua.edu.cn
联系电话:(010)82151160  

办公地点:北京市海淀区清华科技园启迪科技大厦C座12层

官方微信

京ICP备15006448号  |   版权所有©清华大学智能产业研究院