前言人工智能治理是各方为解决人工智能领域风险分担和利益分配问题,通过政策制定、法律监管、伦理指导等手段,对人工智能的研发、应用等行为进行全面管理和调控的过程。人工智能治理应为人工智能领域发展和安全问题建立有效的风险矫正机制、利益分配机制及机构协调机制,积极应对发展不平衡、规则不健全、秩序不合理问题并促进全球协商合作。近一年来,全球人工智能治理面临复杂多变新形势。全球人工智能行业实现高速增长,在产业规模、投融资、企业数量等方面表现明显,具身智能、数字人等人工智能应用将驱动下一轮产业洗牌。通用人工智能技术飞速跃迁敲响安全警钟,幻觉难消除、场景难限定、责任难追溯等特性放大了虚假信息、隐私侵犯、网络犯罪等现实风险。同时,全新的人机交互模式开启了“人类外脑”时代,在未来发展中可能引发情感依赖、劳动替代、生存性风险等方面的人机伦理风险,不断挑战政府传统监管模式、加剧国际合作协调难度、考验供应链主体自治能力。本报告从新技术革命引发的经济社会发展变革和历史经验出发,在“以人为本、智能向善”理念指引下,基于供应链条、价值链条、全生命周期链条等底层逻辑,从What、Why、Who、How四个维度搭建了人工智能治理体系框架。在梳理人工智能概念分歧、人工智能风险谱系基础上,框架从安全和发展两个维度提出四组议题。安全侧来看,安全可控是人工智能治理的底线基础,强调基于风险的全生命
暂无评论内容