OpenAI于周四发布了新一系列推理模型,现已进入预览阶段。
OpenAI o1是一系列旨在在回应之前花更多时间思考或处理信息的AI模型。根据ChatGPT创始人的说法,这些模型在训练过程中学会了优化思维过程并尝试不同的策略。
此外,公司还推出了OpenAI o1-mini,这是一款更便宜的推理模型,特别适合编码任务。
新模型的反馈迄今为止褒贬不一。
向前迈出一步
更好的推理AI模型是向自主模型和AI代理迈出的重要一步——这些AI系统能够在几乎没有人类干预的情况下执行任务。许多供应商,尤其是谷歌,也在致力于创建更好的推理模型。
“这绝对是一个进步,展示了生成AI模型的明显进化模式,”Gartner分析师阿伦·钱德拉塞卡兰(Arun Chandrasekaran)表示。“代理需要许多不同的能力,其中之一显然是推理。这无疑是未来实现更自主代理的关键支柱之一。”
除了推理,AI代理还需要记忆和协调能力,他补充道。
虽然OpenAI似乎通过强化学习技术将推理引入模型,但尚未透露关于这些模型的深入技术细节。强化学习教会大型语言模型和小型语言模型通过某些行为来获得更好的结果,这些行为会惩罚不良结果并奖励良好结果。
尽管新OpenAI模型在推理方面表现出色,特别是在数学和编码方面,但尚不清楚企业将如何使用这些模型。
更好的推理听起来不错,但对于企业来说,必须在响应时间更慢和o1及o1-mini模型成本更高与更快的LLM之间进行权衡,这可能会带来挑战,钱德拉塞卡兰表示。
OpenAI尚未透露这些模型的成本细节。
解决偏见问题
虽然提升AI模型的推理能力是可取的,但并不能消除偏见问题。
一些使用链式思维提示的模型,在被要求逐步推理后给出最终答案时,往往会基于偏见数据进行推理。
因此,OpenAI和其他AI创作者可能需要的不是能够推理的特殊模型,而是通过更好的数据来解决模型的准确性和幻觉问题,TechTarget企业战略组分析师马克·贝库(Mark Beccue)表示。
“数据越好,模型回答问题的能力就越强,”他说。
根据贝库的说法,更好的做法是用更好的数据训练模型,并标明数据来源。“这就是透明度,”他说。
当来源被标明时,可以清晰地了解模型的推理过程。
“有推理能力和更好的结果有什么意义?”贝库继续说道。“如果你的推理基于错误的数据,那依然是糟糕的。让我们从基础开始,即良好的数据。”
对良好数据和更好推理的双重需求,反映了生成AI市场在创新与伦理之间需要达到的平衡,Copyleaks的联合创始人兼首席执行官阿隆·亚敏(Alon Yamin)表示。
“你要确保一方面我们不断推出新的、更好的模型,”亚敏说,并补充说推理就是这样的创新。“从伦理角度来看,[则是]确保你理解正在训练的信息——它的局限性,以及识别和减轻模型可能带来的风险。”
ChatGPT Plus和Team用户现在可以在ChatGPT和OpenAI API中访问o1模型。ChatGPT Enterprise和Edu用户将在下周获得这些模型的访问权限。一些开发者今天就可以开始对这些模型进行原型设计。
埃斯特·阿贾奥(Esther Ajao)是TechTarget的新闻撰稿人和播客主持人,专注于人工智能软件和系统。