2023年10月7日,负责中东和中亚防务行动的美国中央司令部在哈马斯袭击以色列后感到震惊,引发了加沙的残酷战争。
随着伊朗支持的民兵日益袭击美国在伊拉克和叙利亚的军事基地,这个政府组织的运作受到了干扰。
“在24小时内,我们司令部的步调和行动节奏发生了变化,”美国中央司令部首席技术官舒勒·摩尔(Schuyler Moore)在华盛顿特区Nvidia AI峰会上的一个小组讨论中说道。
尽管这意味着地面上的重大转变,但也导致了管理上的变化。在操作层面,中央司令部看到会议数量增加,以及对这些会议进行总结的需求增加。
“突然间,我们的工作人员身上压下了沉重的包袱,要求他们突然参与、总结并推送所有与关键事件相关的信息,不仅要在我们自己的指挥部内部做到及时,还要在我们的指挥部之外,向国家安全委员会等部门传递信息,”摩尔表示。
利用GenAI寻找出路
中央司令部探索应对这种干扰的一种方式是使用生成式人工智能。
通过OpenAI的Whisper等语音识别技术,似乎解决这个问题的方法是拆分音频记录并生成摘要。然而,摩尔表示,这种方法并没有产生预期的效果。
摘要的接收者对他们认为重要的内容有不同的要求。通过这种经验,中央司令部意识到使用生成式人工智能进行摘要并不有益。然而,这种失败的应用案例只是这个政府军事机构的开始。
从一月初到二月初,该司令部找到了一种在政府机密网络SIPRNet上可用的LLM的方法。
摩尔说:“在机密网络上工作就像在一片贫瘠的荒野中工作。你无法访问公共互联网。”
然而,摩尔的团队大部分工作都在SIPRNet上进行,几乎没有在类似谷歌的未分类网络上工作。
在SIPRNet上的LLM对几个应用程序很有用。首先,它有助于代码增强和生成。以前,程序员需要在两个不同的网络上使用:SIPRNet和另一台用于未分类信息的计算机上的谷歌。
有了SIPRNet上的LLM,一切都集中在一个地方。
摩尔说:“我们认为它特别成功的明显原因是,它非常容易坦率地捕捉错误,但也很容易注意到如果你的代码没有生成输出,或者如果它没有正确地执行,风险非常低。”
中央司令部使用生成式人工智能的另一个用途是机器辅助披露。这意味着LLM可以帮助人类确定哪些文件是机密的,不能披露,哪些文件可以披露。
最后,中央司令部发现生成式人工智能仍然可以帮助进行摘要,但其能力有限。中央司令部了解到,与其向LLM提供多个文件然后让LLM生成一个“神奇”的摘要,不如让模型引导用户到文件的特定部分,以便用户知道他们需要关注什么。
在Nvidia AI峰会上讨论的参与者讨论美国中央司令部、空军和陆军使用生成式人工智能的方式。
空军和NIPRGPT
中央司令部并不是唯一一个将生成式人工智能作为工具的政府机构。空军也创建了自己的AI聊天机器人,名为NIPRGPT。NIPRGPT是在空军研究实验室开发的Dark Saber软件平台的一部分。
Dark Saber是一群美国空军创新者和开发人员创建软件系统的团队。
NIPRGPT使用户可以与其进行类似人类的对话。作为生成式人工智能工具,它可以回答问题,并在安全环境内协助编码等任务。
空军研究实验室的高级计算机科学家科伦·罗勒(Collen Roller)在小组讨论中表示:“当我们最初着手举办这个项目时,起初我们认为大多数人不会使用它。”他补充说,假设是,在消费者世界中,ChatGPT和其他生成式人工智能聊天机器人需求很大,但在政府部门可能并非如此。
然而,这一假设被证明是错误的。
罗勒说:“国防部对GenAI的需求是真实的,这是我们共同需要关注和专注的事项。我们一开始就对NIPRGPT表现出了很大的兴趣。”
他补充说,许多人使用NIPRGPT来减少繁琐的任务,比如创建演示文稿大纲或总结不同会议的内容。
空军官员还担心NIPRGPT可能被滥用。
罗勒说:“当人们第一次使用政府GPT时,我们认为人们可能会问如何制造破坏性物品,或者试图提出一些荒谬的问题。我们发现情况并非如此。人们只是想节省时间。”
陆军和CamoGPT
节省时间对美国陆军也很重要,他们正在测试一款名为CamoGPT的GPT产品。目前,大约有1万名陆军成员正在使用CamoGPT。
陆军正在测试这款模型,这促使陆军提出了一些关于是否值得投资这项技术以及士兵将如何使用它的难题,美国陆军人工智能中心主任艾萨克·费伯(Isaac Faber)在与摩尔和罗勒进行的同一小组讨论中表示。
费伯说:“从陆军的角度来看,我们将对…进行很多实验,看看采用这些技术意味着什么。”
GenAI风险
尽管陆军和其他政府部门正在谨慎地利用生成式人工智能技术,但他们仍然谨慎行事。
陆军采用技术的政策,包括使用水印,旨在确保数据受到保护。陆军也意识到人工智能技术如何被用来对抗美国。
陆军正在探索人工通用智能(AGI)——一种将人工智能定义为能够做任何人类能做的事情的概念——将意味着什么。
邦说:“当你达到AGI时,真正重要的是行为和结果,我们不知道结果应该是什么。”
他补充说:“我们试图提前两三步看我们在采用大规模的技术时将会遇到什么障碍,我们正在尝试解决这些问题。”