致力打造国内好用的AI产品导航平台
Anthropic 已经指出了人工智能系统潜在的风险,并呼吁制定结构化良好的监管措施以防止可能发生的灾难。该组织认为,有针对性的监管对于发挥人工智能的优势同时减少其风险至关重要。 随着人工智能系统在数学、推理和编程等能力方面的提升,它们在网络安全以及生物和化学等领域的潜在滥用风险显著增加。
Anthropic 警告称,未来18个月内政策制定者采取行动至关重要,因为主动预防的窗口期正在缩小。特别值得注意的是,Anthropic 的前沿红队指出,当前模型已经能够对各种网络攻击相关任务做出贡献,并预期未来的模型将更加有效。 尤其令人担忧的是人工智能系统可能加剧化学、生物、放射性和核(CBRN)的滥用风险。英国人工智能安全研究所发现,一些人工智能模型目前在回答科学相关问题方面已能与博士级人类专业知识相匹敌。
为了应对这些风险,Anthropic 详细阐述了其在2023年9月发布的负责任扩展政策(RSP),作为一项有力的对策。RSP 规定,随着人工智能能力复杂性的增加,必须相应提高安全措施。 RSP 框架设计为具有适应性和迭代性,定期对人工智能模型进行评估,以便及时完善安全协议。Anthropic 表示,它致力于在团队扩展的各个领域中维持和增强安全性,特别是在安全、可解释性和信任方面,确保为RSP设定的严格安全标准做好准备。
Anthropic 认为,尽管在人工智能行业中广泛采用RSP主要是自愿的,但这一点对于应对人工智能风险至关重要。 透明且有效的监管对于确保社会相信人工智能公司会遵守安全承诺至关重要。然而,监管框架必须具有战略性,以激励良好的安全实践,同时避免施加不必要的负担。 Anthropic 所设想的法规应当清晰、具有针对性,并能够适应技术的不断变化,认为这些对于在减轻风险与促进创新之间取得平衡至关重要。
在美国,Anthropic 建议联邦立法可能是解决人工智能风险监管问题的最终方案——尽管如果联邦行动迟缓,可能需要州级驱动的措施介入。世界各国制定的立法框架应允许标准化和相互认可,以支持全球人工智能安全议程,并尽可能降低不同地区遵守监管的成本。
此外,Anthropic 解答了对实施监管的疑虑——强调过于宽泛且以用例为中心的法规对于具有广泛应用的通用人工智能系统效率低下。相反,法规应专注于人工智能模型的基本属性和安全措施。 在覆盖广泛风险的同时,Anthropic 承认一些直接威胁,例如深度伪造,并不是其当前提案的重点,因为其他举措正在应对这些短期内的问题。
最终,Anthropic 强调制定能够促进创新而非抑制创新的法规的重要性。虽然初始合规负担是不可避免的,但可以通过灵活且精心设计的安全测试将其最小化。适当的监管甚至可以通过保护知识产权免受内部和外部威胁来帮助保护国家利益和私营部门的创新。
通过关注基于经验的风险评估,Anthropic 计划构建一个既不偏袒开源模型也不偏袒闭源模型的监管格局。目标依然明确:通过严格且适应性强的监管来管理前沿人工智能模型的重大风险。