日内瓦当地时间 7 月 10 日上午 10:40,中国工程院外籍院士、清华大学智能产业研究院(AIR)院长张亚勤出席了出席了由联合国(UN)和国际电信联盟(ITU)共同组织的2025 AI 向善(AI for Good)全球峰会“From principles to practice: Governing advanced Al in action”主论坛,探讨人工智能治理。
张亚勤院士重点指出了人工智能治理面临的三大主要问题:
1. 技术快速发展与治理滞后的失衡。他强调,人工智能技术 —— 尤其是生成式 AI 及其在自动驾驶、机器人等物理领域的应用 —— 正以惊人速度迭代,但治理与监管的步伐却相对迟缓。风险的不断放大尚未得到足够完善的监管框架匹配。
2. 全球竞争与责任缺失的矛盾。中国、美国及世界其他地区的企业正陷入激烈的创新 “军备竞赛”。在这一竞争环境下,由于缺乏清晰的责任认定机制和监管工具,安全问题有时未能得到应有的优先考量。
3. AI 监管中的地缘差异。不同国家和地区(如英国、中国、美国)对 AI 安全准则的态度与实施路径存在差异。张亚勤特别提到,中国的治理方式具有显著的开放性与包容性,通过与产业界的紧密协作,共同规范大型模型的数据收集、测试、备案及发布等环节。
针对上述问题,张亚勤院士强调了多项关键解决策略:需为大模型建立分级分类框架,针对前沿大模型制定场景约束与评估体系,在医疗、自动驾驶等高风险领域设立严格标准,并从性能、安全性等多维度进行全面评估;同时通过 ID 实体映射追溯责任主体,像标识广告一样明确 AI 生成的数字人等智能体,将机器人等物理及生物从属智能体映射到具体法人实体,确保问题发生时可追溯责任。此外,安全(Safety)应该是AI的基础,而非事后补充(Safety is the foundation for AI, not an after thought),他呼吁企业、基金会等将大模型投资的 10% 以上用于 AI 风险研究,推动发展与治理、技术与政策、产学研深度融合,既研究符合伦理法律的监管政策以促进国际合作,也在技术层面开发可解释性模型以提升系统安全性。为从根本上规避灾难性风险,需为 AI 设立明确红线与边界,例如禁止 AI 系统在无人类批准的情况下自主复制或改进,杜绝其不当追求权力。最后,还需加强国际沟通合作与协调机制,推动 AI 治理的国际标准化,通过联合实验室、科研项目等促进跨国协作,弥合政策差异,形成全球协同的治理合力。
此次分论坛聚焦于 AI 能力快速发展背景下,行业和监管领域涌现的新治理方法。会议探讨了当前的最佳实践,包括负责任的扩展法则、欧盟的实施经验、自愿性行业框架以及创新监管机制等。演讲者们分享了在管理前沿 AI 发展方面的不同方法,同时也讨论了为快速发展的 AI 系统实施治理措施所面临的实际挑战。