在2022年11月ChatGPT发布后,2023年成为人工智能的转折点。过去一年的发展,从充满活力的开源生态到复杂的多模态模型,为人工智能的重大进展奠定了基础。
尽管生成式人工智能仍然吸引着科技界的关注,但随着组织将重点从实验转向现实世界的应用,态度变得更加细致和成熟。今年的趋势反映了人工智能开发和部署策略的日益复杂和谨慎,关注伦理、安全和不断变化的监管环境。
以下是2024年需要准备的十大人工智能和机器学习趋势。
1. 多模态人工智能
多模态人工智能超越了传统的单一模式数据处理,涵盖多种输入类型,如文本、图像和声音——这是模仿人类处理多样感官信息能力的一步。
“世界的接口是多模态的,”OpenAI前沿研究负责人Mark Chen在2023年11月的EmTech MIT会议上表示。“我们希望我们的模型能看到我们看到的东西,听到我们听到的东西,同时生成能够吸引我们多种感官的内容。”
本文是
企业人工智能指南
- 还包括:
- 2024年十大人工智能和机器学习趋势
- 2024年十大人工智能认证和课程
- 人工智能的未来:未来五年的展望
OpenAI的GPT-4模型中的多模态能力使软件能够响应视觉和音频输入。在他的演讲中,Chen举了一个例子:拍摄冰箱内部的照片,并要求ChatGPT根据照片中的食材建议食谱。如果使用ChatGPT的语音模式提出请求,这个互动甚至可以包含音频元素。
OpenAI前沿研究负责人Mark Chen在EmTech MIT会议上发表讲话。
尽管目前大多数生成式人工智能项目基于文本,但“这些能力的真正力量在于,当你能够将文本和对话与图像和视频结合起来,交叉应用这三者,并将其应用于各种业务时,”EY美洲新兴技术负责人Matt Barrington表示。
多模态人工智能的现实应用多种多样且不断扩展。例如,在医疗保健领域,多模态模型可以结合患者历史和遗传信息分析医学图像,从而提高诊断准确性。在工作职能层面,多模态模型可以扩展各种员工的能力,通过将基本设计和编码能力扩展到没有正式背景的个人。
“我画画完全不行,”Barrington说。“但现在我可以。我在语言方面还不错,所以……我可以使用[图像生成]这样的能力,把我脑海中的一些想法,AI可以帮我实现。”
此外,引入多模态能力可以通过提供新的学习数据来增强模型。“随着我们的模型在语言建模方面变得越来越好,并开始达到从语言中学习的极限,我们希望为模型提供来自世界的原始输入,以便它们能够自主感知世界并从视频或音频数据中得出自己的推论,”Chen说。
2. 代理人工智能
代理人工智能标志着从反应式到主动式人工智能的重大转变。人工智能代理是展示自主性、主动性和独立行动能力的先进系统。与传统人工智能系统主要响应用户输入并遵循预设编程不同,人工智能代理旨在理解其环境、设定目标并在没有直接人类干预的情况下采取行动以实现这些目标。
例如,在环境监测中,人工智能代理可以被训练来收集数据、分析模式并在出现火灾早期迹象等危险时采取预防性措施。同样,金融人工智能代理可以使用自适应策略主动管理投资组合,实时响应不断变化的市场条件。
“2023年是能够与人工智能聊天的一年,”计算机科学家、斯坦福人本中心人工智能研究所研究员Peter Norvig在最近的博客文章中写道。“在2024年,我们将看到代理能够为你完成任务。预定、计划旅行、连接其他服务。”
此外,将代理人工智能与多模态人工智能结合可能会开启新的可能性。在上述演讲中,Chen举了一个应用程序的例子,该程序旨在识别上传图像的内容。之前,想要构建这样的应用程序的人需要训练自己的图像识别模型,然后找出如何部署它。但借助多模态、代理模型,这一切都可以通过自然语言提示完成。
“我真的认为,多模态与GPT结合将打开计算机视觉应用的无代码开发,就像提示打开了许多基于文本的应用的无代码开发一样,”Chen说。
3. 开源人工智能
构建大型语言模型和其他强大的生成式人工智能系统是一个昂贵的过程,需要大量的计算和数据。但使用开源模型使开发者能够在他人的工作基础上构建,从而降低成本并扩大人工智能的可访问性。开源人工智能是公开可用的,通常是免费的,使组织和研究人员能够为现有代码做出贡献并在其基础上进行构建。
过去一年的GitHub数据显示,开发者与人工智能,特别是生成式人工智能的互动显著增加。2023年,生成式人工智能项目首次进入代码托管平台十大热门项目,包括Stable Diffusion和AutoGPT等项目吸引了数千名首次贡献者。
年初,开源生成模型数量有限,其性能通常落后于ChatGPT等专有选项。但在2023年,随着Meta的Llama 2和Mistral AI的Mixtral模型等强大开源竞争者的出现,格局显著扩大。这可能会在2024年改变人工智能领域的动态,使资源较少的实体能够访问到之前无法接触的复杂人工智能模型和工具。
“这为每个人提供了简单、相对民主化的访问,非常适合实验和探索,”Barrington说。
开源方法还可以促进透明度和伦理开发,因为更多的目光关注代码意味着更大可能识别偏见、漏洞和安全隐患。但专家们也对开源人工智能被滥用以制造虚假信息和其他有害内容表示担忧。此外,构建和维护开源即使对于传统软件也很困难,更不用说复杂且计算密集型的人工智能模型了。
4. 检索增强生成
尽管生成式人工智能工具在2023年被广泛采用,但它们仍然面临幻觉问题:对用户查询的似是而非但不正确的响应。这一局限性对企业采用构成了障碍,因为在业务关键或客户面向的场景中出现幻觉可能是灾难性的。检索增强生成(RAG)作为一种减少幻觉的技术应运而生,可能对企业人工智能的采用产生深远影响。
RAG将文本生成与信息检索相结合,以增强人工智能生成内容的准确性和相关性。它使大型语言模型能够访问外部信息,帮助它们生成更准确且具有上下文意识的响应。绕过直接在大型语言模型中存储所有知识的需求还减少了模型的大小,从而提高了速度并降低了成本。
“你可以使用RAG收集大量非结构化信息、文档等,将其输入模型,而无需微调或定制训练模型,”Barrington说。
这些好处对企业应用尤其诱人,因为最新的事实知识至关重要。例如,企业可以使用RAG与基础模型结合,创建更高效和信息丰富的聊天机器人和虚拟助手。
5. 定制企业生成式人工智能模型
像Midjourney和ChatGPT这样的大型通用工具在探索生成式人工智能的消费者中吸引了最多关注。但对于商业用例而言,较小的、专用的模型可能会证明更具持久力,受到日益增长的对能够满足细分需求的人工智能系统的需求驱动。
虽然从零开始创建新模型是一种可能性,但这是一项资源密集型的提议,许多组织无法承受。大多数组织选择修改现有的人工智能模型来构建定制的生成式人工智能——例如,调整其架构或在特定领域的数据集上进行微调。这可能比从头构建新模型或依赖公共大型语言模型的API调用更便宜。
“以GPT-4作为API调用为例,成本和延迟都非常高——实际上返回结果所需的时间,”Workday人工智能和机器学习副总裁Shane Luke说。“我们正在努力优化,以便我们拥有相同的能力,但它是非常针对性和具体的。因此,它可以是一个更小的、可管理的模型。”
定制生成式人工智能模型的关键优势在于能够满足细分市场和用户需求。可以为几乎任何场景构建量身定制的生成式人工智能工具,从客户支持到供应链管理再到文档审查。这在具有高度专业术语和实践的行业中尤为相关,如医疗、金融和法律。
在许多商业用例中,最庞大的大型语言模型显得过于强大。尽管ChatGPT可能是面向消费者的聊天机器人处理任何查询的最先进技术,但“它并不是针对较小企业应用的最先进技术,”Luke说。
Barrington预计,随着人工智能开发者能力的开始趋同,企业将在来年探索更广泛的模型。“我们预计,在接下来的一两年中,模型之间的同质化程度会大大提高——这是一件好事,”他说。
在较小的规模上,Luke在Workday看到了类似的情况,该公司提供一系列供团队内部实验的人工智能服务。尽管员工最初主要使用OpenAI的服务,但Luke表示,他逐渐看到向各种提供商的模型混合转变,包括谷歌和AWS。
构建定制模型而不是使用现成的公共工具通常也提高了隐私和安全性,因为它使组织对其数据有更大的控制权。Luke举了一个例子,说明如何为处理敏感个人数据(如残疾状态和健康历史)的Workday任务构建模型。“这些不是我们想要发送给第三方的东西,”他说。“我们的客户通常对此不太放心。”
考虑到这些隐私和安全的好处,未来几年更严格的人工智能监管可能会促使组织将精力集中在专有模型上,德勤风险咨询负责人兼全球技术行业领导者Gillian Crossan解释说。
“这将鼓励企业更多关注专有的、特定领域的私有模型,而不是关注那些用来自互联网各处的数据训练的大型语言模型及其所带来的所有问题,”她说。
6. 对人工智能和机器学习人才的需求
设计、训练和测试机器学习模型并非易事——更不用说在复杂的组织IT环境中将其推向生产并维护它。因此,预计对人工智能和机器学习人才的需求在2024年及以后将继续增长也就不足为奇了。
“市场对人才的需求仍然非常火热,”Luke说。“在这个领域找到工作非常容易。”
特别是,随着人工智能和机器学习越来越融入商业运营,迫切需要能够弥合理论与实践之间差距的专业人士。这需要在实际环境中部署、监控和维护人工智能系统的能力——这一学科通常被称为MLOps,即机器学习操作。
在最近的一份O'Reilly报告中,受访者指出,人工智能编程、数据分析和统计以及人工智能和机器学习的操作是他们组织在生成式人工智能项目中最需要的三项技能。然而,这些技能的短缺使得“这是人工智能面临的挑战之一——能够让人才随时可用,”Crossan说。
在2024年,组织将寻求具备这些技能的人才——而不仅仅是大型科技公司。随着IT和数据几乎无处不在,作为商业职能和人工智能项目日益流行,建立内部人工智能和机器学习能力将成为数字转型的下一个阶段。
Crossan还强调了在每个层次的人工智能项目中多样性的必要性,从构建模型的技术团队到董事会。“人工智能和公共模型的一个大问题是训练数据中存在的偏见,”她说。“除非你在组织内部拥有多样化的团队,挑战结果和观察到的内容,否则你可能会陷入比人工智能之前更糟糕的境地。”
7. 影子人工智能
随着各个职能的员工对生成式人工智能产生兴趣,组织面临影子人工智能的问题:在没有IT部门明确批准或监督的情况下,在组织内使用人工智能。随着人工智能变得更加可获取,这一趋势日益普遍,甚至非技术工人也能独立使用它。
当员工需要快速解决方案或希望比官方渠道更快地探索新技术时,影子人工智能通常会出现。这在易于使用的人工智能聊天机器人中尤为常见,员工可以在他们的网络浏览器中轻松尝试——而无需经过IT审核和批准流程。
积极的一面是,探索使用这些新兴技术的方式体现了主动和创新的精神。但这也带来了风险,因为最终用户通常缺乏相关的安全、数据隐私和合规信息。例如,用户可能会将商业机密输入一个面向公众的大型语言模型,而没有意识到这样做会使敏感信息暴露给第三方。
“一旦某些内容进入这些公共模型,你就无法将其撤回,”Barrington说。“因此,大多数企业,无论行业如何,都需要考虑一些恐惧因素和风险角度。”
影子人工智能只是影子IT更大现象的一部分。
在2024年,组织需要采取措施通过治理框架来管理影子人工智能,以平衡支持创新与保护隐私和安全。这可能包括制定明确的可接受的人工智能使用政策和提供批准的平台,以及鼓励IT和业务领导者之间的合作,以了解各个部门希望如何使用人工智能。
“现实是,每个人都在使用它,”Barrington提到最近的EY研究发现,90%的受访者在工作中使用人工智能。“无论你喜欢与否,你的员工今天都在使用它,因此你应该找出如何使他们与伦理和负责任的使用保持一致。”
8. 生成式人工智能的现实检查
随着组织从初始的生成式人工智能热情转向实际采用和整合,它们可能会在2024年面临现实检查——这一阶段通常被称为Gartner炒作周期中的“幻灭低谷”。
“我们确实看到了从实验阶段迅速转变为[询问]‘我如何在整个企业中大规模运行这个?'”Barrington说。
随着早期热情的减退,组织正在面对生成式人工智能的局限性,例如输出质量、安全和伦理问题,以及与现有系统和工作流程的整合困难。在商业环境中实施和扩展人工智能的复杂性往往被低估,确保数据质量、训练模型和在生产中维护人工智能系统等任务可能比最初预期的更具挑战性。
“实际上,构建一个生成式人工智能应用并将其投入生产并不容易,”Luke说。
好的一面是,这些成长的疼痛,虽然短期内不愉快,但可能在长期内导致更健康、更温和的前景。走出这个阶段需要对人工智能设定现实的期望,并对人工智能能做什么和不能做什么有更细致的理解。人工智能项目应明确与商业目标和实际用例挂钩,并制定明确的结果评估计划。
“如果你的用例非常松散且不明确,这可能会是你最大的障碍,”Crossan说。
9. 对人工智能伦理和安全风险的关注增加
深度伪造和复杂的人工智能生成内容的激增引发了对媒体和政治中潜在虚假信息和操纵的警报,以及身份盗窃和其他类型欺诈的担忧。人工智能还可以增强勒索软件和网络钓鱼攻击的有效性,使其更具说服力、更具适应性且更难以检测。
尽管正在进行努力开发检测人工智能生成内容的技术,但这一工作仍然具有挑战性。当前的人工智能水印技术相对容易被规避,现有的人工智能检测软件也容易产生误报。
人工智能系统的日益普及也突显了确保其透明和公正的重要性——例如,通过仔细审查训练数据和算法的偏见。Crossan强调,这些伦理和合规考虑应贯穿于人工智能战略的开发过程。
“作为一个企业,你必须考虑……实施人工智能时,你需要什么控制措施?”她说。“这开始帮助你为监管做好计划,这样你就可以共同进行,而不是在所有人工智能实验结束后再想‘哦,现在我们需要考虑控制措施。'你要同时进行。”
安全和伦理也可能是考虑较小、较窄模型的另一个原因,Luke指出。“这些较小的、调优的、特定领域的模型能力远不如真正大型的模型——我们希望如此,”他说。“它们更不可能输出你不想要的内容,因为它们的能力有限。”
10. 演变中的人工智能监管
鉴于这些伦理和安全问题,2024年注定将成为人工智能监管的关键年份,美国及全球的法律、政策和行业框架正在迅速演变。组织需要在未来一年保持信息灵通和适应性,因为不断变化的合规要求可能对全球运营和人工智能发展战略产生重大影响。
欧盟的人工智能法案,最近欧盟议会和委员会成员达成的临时协议,代表了全球首部全面的人工智能法律。如果通过,它将禁止某些人工智能使用,要求高风险人工智能系统的开发者承担义务,并要求使用生成式人工智能的公司保持透明,违规可能导致数百万美元的罚款。而不仅仅是新的立法可能在2024年产生影响。
“有趣的是,我认为可能产生最大影响的监管问题是GDPR——老生常谈的GDPR——因为在公共大型语言模型中需要纠正和删除、被遗忘的权利,”Crossan说。“当它们从大量数据中学习时,如何控制这一点,以及如何确保你已被遗忘?”
与GDPR一起,人工智能法案可能使欧盟成为全球人工智能监管者,可能影响全球的人工智能使用和开发标准。“在人工智能监管方面,他们无疑走在了美国前面,”Crossan说。
美国尚未拥有与欧盟人工智能法案相当的全面联邦立法,但专家们鼓励组织不要等到正式要求生效后才考虑合规。例如,在EY,“我们正在与客户接洽,以提前应对,”Barrington说。否则,当法规生效时,企业可能发现自己在追赶。
除了欧洲政策的连锁反应,最近美国行政部门的活动也表明人工智能监管可能如何在国内展开。乔·拜登总统在10月发布的行政命令实施了新的要求,例如要求人工智能开发者向美国政府分享安全测试结果,并施加限制以保护生物材料工程的风险。各联邦机构还针对特定行业发布了指导,例如NIST的人工智能风险管理框架和联邦贸易委员会的声明,警告企业不要对其产品的人工智能使用做出虚假声明。
更复杂的是,2024年是美国的选举年,目前的总统候选人对科技政策问题的立场差异很大。新的政府理论上可以通过推翻或修订拜登的行政命令和非约束性机构指导来改变行政部门对人工智能监管的态度。
Lev Craig是TechTarget Enterprise AI的站点编辑,负责人工智能和机器学习的相关内容。