前OpenAI、谷歌和Meta的员工周二在国会作证,警告人工智能(AI)达到人类智力水平所带来的威胁,并呼吁参议院隐私、技术和法律小组委员会推动美国的AI政策,以保护公众免受AI造成的危害。
人工通用智能(AGI)是指一种接近人类认知水平的AI系统。William Saunders,前OpenAI技术员工,2月辞职,他在听证会上作证称,AGI可能通过自主进行网络攻击或协助制造新型生物武器而造成“灾难性伤害”。
Saunders表示,尽管在AGI开发方面仍有显著差距,但在三年内构建出AGI系统是有可能的。
“AI公司正在迅速朝着构建AGI的方向发展,”Saunders说,并提到OpenAI最近发布的GPT-o1。“AGI将对社会产生重大变化,包括经济和就业的根本性变化。”
他补充道,目前尚不清楚如何确保AGI系统的安全和可控,这意味着它们可能具有欺骗性并隐藏不当行为。Saunders指出,OpenAI“多次优先考虑部署速度而非严谨性”,这也留下了漏洞,增加了来自美国外国对手的盗窃威胁。在他任职于OpenAI期间,他提到OpenAI并未优先考虑内部安全。他表示,曾有很长一段时间,漏洞使员工能够绕过访问控制,盗取公司的最先进AI系统,包括GPT-4。
“OpenAI会说他们在改进,”他说。“我和其他辞职的员工怀疑他们能否及时做好准备。这不仅仅适用于OpenAI。优先快速部署的激励适用于整个行业。这就是为什么需要政策响应。”
AGI和缺乏AI政策是内部人士的主要担忧
“我辞职是因为我失去了对他们能否做出负责任的AGI决策的信心。”——**William Saunders**,前OpenAI员工
Saunders呼吁政策制定者推进优先测试AI系统的政策,确保在部署前后进行测试,并要求分享测试结果,同时为举报者提供保护。
“我辞职是因为我失去了对他们能否做出负责任的AGI决策的信心,”他在听证会上说。
Helen Toner,曾于2021年至2023年11月担任OpenAI非营利董事会成员,她作证称,AGI是许多AI公司认为他们很快可以实现的目标,因此联邦AI政策是必要的。Toner目前是乔治城大学安全与新兴技术中心的战略与基础研究资助主任。
“包括OpenAI、谷歌、Anthropic在内的许多顶级AI公司都将构建AGI视为一个非常严肃的目标,”Toner说。“许多公司内部的人相信,如果他们成功构建出与人类同样聪明甚至更聪明的计算机,这项技术至少会对社会产生极大的干扰,最多可能导致人类的灭绝。”
Margaret Mitchell,前微软和谷歌研究科学家,现在担任AI初创公司Hugging Face的首席伦理科学家,她表示,政策制定者必须解决公司AI实践中的许多缺口,这些缺口可能导致伤害。确实,多个AI公司去年承诺的自愿自我监管并未奏效,加州大学伯克利分校的技术与民主倡议的高级政策顾问David Harris在听证会上表示。
Harris曾在Meta的公民诚信和负责任AI团队工作,从2018年到2023年,他指出这两个安全团队现在已经不存在,并提到科技公司信任与安全团队在过去两年中“显著缩减”。
Harris表示,许多国会的AI法案为AI安全和公平提供了良好的框架。实际上,多个AI法案正在等待众议院和参议院的投票。但国会尚未通过AI立法。
“我担心我们会重蹈社交媒体的覆辙,做得太少,太晚,”参议员Richard Blumenthal(D-Conn.)在听证会上说。“我们从社交媒体中应该吸取的教训是,不要信任大型科技公司。我们不能依赖他们来完成这项工作。”
Makenzie Holland是一名高级新闻记者,负责报道大型科技和联邦监管。在加入TechTarget编辑部之前,她是Wilmington StarNews的综合报道记者,以及Wabash Plain Dealer的犯罪与教育记者。