Open-weight advanced AI models -- systems whose parameters are freely available for download and adaptation -- are reshaping the global AI landscape. As these models rapidly close the performance gap with closed alternatives, they enable breakthrough research and broaden access to powerful tools. However, once released, they cannot be recalled, and their built-in safeguards can be bypassed through fine-tuning or jailbreaking, posing risks that current governance frameworks are not equipped to address. This report moves beyond the binary framing of ``open'' versus ``closed'' AI. We assess the current landscape of open-weight advanced AI, examining technical capabilities, risk profiles, and regulatory responses across the European Union, United States, China, the United Kingdom, and international forums. We find significant disparities in safety practices across developers and jurisdictions, with no commonly adopted standards for determining when or how advanced models should be released openly. We propose a tiered, safety-anchored approach to model release, where openness is determined by rigorous risk assessment and demonstrated safety rather than ideology or commercial pressure. We outline actionable recommendations for developers, evaluators, standard-setters, and policymakers to enable responsible openness while investing in technical safeguards and societal preparedness.


翻译:开放权重先进人工智能模型——其参数可供自由下载和适配的系统——正在重塑全球人工智能格局。随着这些模型在性能上迅速逼近闭源替代品,它们不仅推动了突破性研究,也拓宽了强大工具的获取渠道。然而,此类模型一旦发布便无法撤回,其内置安全防护措施可能通过微调或越狱手段被绕过,由此产生的风险是当前治理框架尚无法有效应对的。本报告突破“开放”与“封闭”人工智能的二元对立框架,系统评估当前开放权重先进AI的发展态势,从技术能力、风险特征及监管应对等维度,考察欧盟、美国、中国、英国及国际论坛的实践现状。研究发现,不同开发主体与司法管辖区在安全实践层面存在显著差异,且尚未形成关于何时或以何种方式开放高级模型的公认标准。我们提出一种分层化、安全锚定的模型发布框架,其中开放程度应由严格的风险评估和已验证的安全性决定,而非受意识形态或商业压力驱动。报告最后为开发者、评估机构、标准制定者及政策制定者提出可操作建议,旨在实现负责任开放的同时,持续加强技术防护体系与社会应对能力的建设。

0
下载
关闭预览

相关内容

前沿人工智能趋势报告(Frontier AI Trends Report)
专知会员服务
37+阅读 · 2025年12月20日
OpenAI“开放权重模型”即将进入美军作战体系
专知会员服务
28+阅读 · 2025年11月20日
中文版 | 重新定义数字时代冲突:人工智能的角色
专知会员服务
16+阅读 · 2025年5月3日
通往人工超智能的道路:超级对齐的全面综述
专知会员服务
42+阅读 · 2024年12月24日
通用多模态人工智能:架构、挑战和机遇综述
专知会员服务
52+阅读 · 2024年6月29日
人工智能、模块化开放系统架构和未来无人战争
专知会员服务
84+阅读 · 2024年4月4日
重磅!AI框架发展白皮书(2022年),44页pdf
专知
28+阅读 · 2022年2月27日
专访俞栋:多模态是迈向通用人工智能的重要方向
AI科技评论
26+阅读 · 2019年9月9日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
18+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员