You dont have javascript enabled! Please enable it!

美国开始为人工智能开发人员制定风险最高模型的规则

AI技术2个月前更新 gy.J
35 0 0

美国政府在周一提出了对主要开发者和云服务提供商的强制网络安全和发展报告要求。

由商务部工业与安全局(BIS)提出的《拟议规则通知》概述了一项规定,要求最强大的人工智能模型的开发者和云服务提供商向联邦政府提供其系统安全的详细报告。该命令针对可能影响国家安全、经济、公共健康和安全的人工智能系统。

拟议的规则还要求报告红队测试的结果,红队测试涉及检测危险能力,例如协助网络攻击或降低非专业人员开发化学、生物、放射性或核武器的门槛。该监管措施是在拜登总统去年发布的关于人工智能的行政命令近一年后提出的,该命令要求人工智能开发者自愿向美国政府分享安全测试结果。

商务部长吉娜·雷蒙多在新闻稿中表示:“随着人工智能的快速发展,它既有巨大的潜力,也存在风险。该拟议规则将帮助我们跟上的新发展,以增强我们的国家防御和保障国家安全。”

根据新闻稿,收集到的信息将帮助联邦政府确保强大的人工智能模型符合严格的安全和可靠性标准,并能够抵御网络攻击和外国对手的恶意使用。

根植于国家安全的人工智能开发者拟议规则

拜登政府明确表示,这样的规则即将出台,BIS“显然是在其收集关于美国人工智能行业现状数据的授权范围内行动,因为这对国家防御有潜在影响,”信息技术与创新基金会副总裁丹尼尔·卡斯特罗表示。

卡斯特罗指出,美国政府需要了解美国在人工智能方面的工业能力以及潜在的脆弱性。“美国政府需要了解美国在人工智能方面的工业能力,以及潜在的脆弱性。”他表示。确实,在宣布拟议规则的新闻稿中,商务部工业与安全副部长艾伦·埃斯特维兹表示,报告要求将帮助政府官员了解最先进的人工智能系统的能力。

然而,卡斯特罗表示,关于外国对手利用美国人工智能模型的风险,拟议规则的基础相对薄弱。

卡斯特罗认为,政府领导人应更好地评估恶意行为者对所有人工智能模型的访问情况,无论这些模型是否由美国公司生产,并“考虑各种对策的可行性。”

麦肯齐·霍兰是负责报道大型科技和联邦监管的高级新闻记者。在加入TechTarget编辑部之前,她曾担任威尔明顿星报的综合报道记者,以及瓦巴什平原日报的犯罪和教育记者。

© 版权声明

外贸建站推广

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...