手机不翻墙怎么上谷歌
作者:李辉(北京市习近平新时代中国特色社会主义思想研究中心特约研究员,北京市科学技术研究院研究员)
人工智能(AI)作为引领未来的战略新兴技术,已经成为发展新质生产力、推动科技革命和产业升级的核心引擎。随着人工智能领域的高速发展,尤其是生成式人工智能的突破,其复杂效应也不断显现,既释放巨大的技术红利,也衍生出超越以往范畴的安全问题。2023年以来,全球人工智能安全治理的努力大幅增加,治理进程正在不断加速,并且形成了各国政府主导、国际组织积极推进、科技企业协同治理的多方参与格局。
欧盟展现了领先全球的立法速度。2024年3月,其发布的《人工智能法案》被认为是全球首部综合性人工智能治理立法。该法案对人工智能系统进行了分类,并根据风险等级制定了相应的监管要求,设定了普适、全面的人工智能监管方法,包括数据管理、透明度、可解释性、人类监督等方面。欧盟2024年新设了人工智能办公室,推动实施《人工智能法案》。此外,欧盟《人工智能责任指令》在2024年也将出现更多的进展。
与欧盟《人工智能法案》以风险预防和责任追究为中心的立法不同,中国采取了更加包容审慎的治理方式,且采取了“小切口”的立法策略,深入特定应用领域提出监管要求,体现了中国在人工智能领域的敏捷治理理念。2023年8月,《生成式人工智能服务管理暂行办法》开始施行,中国成为世界上首个为生成式大模型立法的国家。
美国人工智能治理则总体宽松温和,以促进发展为主,兜底风险为辅,立法滞后。近年来,在生成式预训练人工智能及相关技术引发越来越多关注和担忧后,美国政府逐步加强监管。2023年1月,美国商务部国家标准与技术研究院发布《人工智能风险管理框架》,旨在对人工智能系统全生命周期实行有效的风险管理。2023年10月,美国第一次在政治对话中真正纳入人工智能的议程,并发布总统行政令《安全、可靠和值得信赖的人工智能开发和使用》,明确了美国政府治理人工智能的政策法律框架,具有里程碑意义。最受瞩目的一点是该行政令动用《国防生产法》的紧急权力,强制要求人工智能企业进行安全测试并与政府分享测试结果。2024年5月,美国参议院人工智能工作组发布《推动美国在AI领域的创新:参议院AI政策路线图》。一系列行动,标志着美国通过“全面立法”治理人工智能的战略努力。2024年,叠加人工智能对美国大选年的重大威胁,人工智能立法将成为美国重头戏。
全球共商机制初步建立。一直以来,如何推出能被广泛接受的人工智能治理原则挑战重重。从经合组织到联合国,国际层面始终在努力推进这一议程。2023年以来,联合国积极参与、推动人工智能全球监管机构和治理机制的构建,以期探索全球监管的“公约数”。联合国秘书长出席联合国安理会人工智能与安全问题高级别公开会,呼吁管控人工智能技术风险,成立新的联合国机构强化人工智能全球治理。2023年,联合国成立全球人工智能监管咨询委员会,该委员会包括科技行业领袖、政府代表和学者,以及知名科技企业的高管,旨在处理全球人工智能监管事宜。
中国、巴西、俄罗斯、印度和南非则同意成立“人工智能研究小组”。欧洲委员会一直在制定一项具有法律约束力的人工智能与人权国际公约,并于2024年3月敲定《人工智能、人权、民主和法治框架公约》最终草案,这是第一个国际人工智能条约。
英国率先成立英国人工智能安全研究所,旨在促进全球对先进人工智能的了解。2024年5月,在人工智能首尔峰会上,美国、英国、加拿大、日本、韩国等10个国家以及欧盟共同签署《首尔声明》,呼吁加强国际人工智能治理合作以及治理框架之间的互操作性,倡导以风险为基础的政策和治理框架,支持启动首个国际人工智能安全研究所网络,促使国家间形成对人工智能安全的共同理解,并在研究、标准和测试方面进行协调。
新的合作模式如何形成至关重要。以哪一方案作为未来共同监管架构模板成为焦点。大国博弈背景下,率先形成人工智能治理范本,可获得人工智能监管主导权。2023年以来,以联合国、欧盟、美国、英国以及中国的相关政策或策略性行动为标志,各国政府和国际组织在人工智能全球治理领域的参与程度和战略部署明显提升,试图影响全球范围内人工智能技术标准、应用规范、治理准则。
各方均在主动发力,扩大自身治理模式的影响。美国在全球人工智能安全峰会前,推动七国集团取得一致立场,并重返联合国教科文组织参与人工智能规则建设。欧盟《人工智能法案》将给全球人工智能立法格局带来重大影响,为人工智能定下监管基调,在治理规制方面帮助欧盟另辟蹊径,在全球人工智能领域进行更深层次的布局。
多层级、多部门联手治理。在顶层设计的指导下,美国参议院、众议院和国会研究处、国会国家人工智能研究资源工作组等部门围绕人工智能应用可能带来的安全风险开展研究和布局,联邦政府下独立行政机构美国联邦贸易委员会、美国证券交易委员会、美国平等就业机会委员会、美国联邦通信委员会积极探索人工智能监管新模式,国务院、财政部、国防部、国土安全部、司法部、教育部、商务部、能源部等部门及其下属机构围绕自身负责领域研究出台促进人工智能负责任应用的相关文件。此外,特别成立了美国人工智能安全研究所、国防部人工智能安全中心、国防部生成式人工智能工作组等机构,围绕人工智能安全开展专门研究及突破。
设立“首席人工智能官”。美国总统行政令提出,要大力推进联邦政府使用人工智能,要求美国管理和预算办公室建立联邦政府人工智能使用指南,各职能政府部门设首席人工智能官,并提升联邦政府内人工智能人才密度。该制度既延续了以往美国在管理领域设立“首席官”的监管范式,又创新了政府对人工智能领域的监管形式。当前,美国联邦机构正密集任命首席人工智能官,提升政府的“含AI量”。纵览已推出的首席人工智能官,任命形式各有不同,其具体职责主要围绕“协同协调、技术创新、风险管理”三个方面展开。
设置人工智能监管沙盒。监管沙盒是由监管机构提供的一种实验平台,是探索人工智能可控发展的创新手段,通过设立限定性条件,以真实用户为对象进行深度测试,降低监管不确定性。监管沙盒既有利于企业技术创新实践应用,也有利于更早地发现前沿技术引发的合规风险。欧盟《人工智能法案》明确了建立人工智能监管沙盒的相关要求,目前欧洲已有多个国家在积极推进人工智能监管沙盒试点。2023年11月,西班牙建立第一个欧盟人工智能监管沙盒。2024中关村论坛发布中国首例人工智能领域监管沙盒,首批入盒模型企业包括中科闻歌、拓尔思、灵犀云等。
成立人工智能验证基金会。新加坡2023年成立了人工智能验证基金会,发挥联系政府、企业和学术专家的平台作用。该基金会与IBM、微软和谷歌等企业合作开发人工智能测试工具,合作制定人工智能国际标准。
欧盟严格禁止销售和使用对人们安全、生计构成明显威胁的人工智能技术,违规公司可能被处以其全球年营业额的7%或4000万欧元的高额罚款。美国总统行政令推动美国生成式人工智能科技企业践行自愿承诺的监管路径,谷歌、Meta、微软等15家人工智能头部科技企业随即在关于推动人工智能技术的安全、可靠和可信的发展方面进行承诺手机不翻墙怎么上谷歌。在首尔人工智能峰会上,亚马逊、微软、谷歌、中国的智谱AI等全球领先的科技企业就人工智能安全作出“前沿人工智能安全承诺”,将努力确保其最先进的人工智能模型安全性,并实施负责任的治理。
人工智能伦理委员会机制不仅是企业自律的重要体现,也是落实人工智能伦理治理的重要制度保障。全球多家头部企业探索人工智能伦理委员会的建设落地。微软负责任人工智能办公室、人工智能伦理委员会分别负责制定内部的人工智能伦理准则、审查敏感应用案例,对特定人工智能伦理问题进行研究、主动制定内部政策。谷歌技术发布前置伦理审查中心,监管人工智能与新兴技术伦理准则。DeepMind伦理与社会团队的独立顾问小组包含多名不同背景与学科的外国专家,针对人工智能伦理问题提供反馈与指导。京东探索研究院,华为可信理论、技术与工程实验室都关注可信人工智能研究。2024年5月28日,“开放人工智能”新成立安全委员会,就其项目和运营的“关键安全决策”提供建议。