随着AI硬件的流行和进步,市场竞争变得愈发激烈。AI硬件公司必须快速推出产品,以确保其在市场上拥有最新和最有效的产品。
尽管这10家AI硬件公司专注于CPU和数据中心技术,但随着市场的扩展,它们的专业领域也逐渐扩大。现在,这些公司正在竞争以打造市场上最强大和高效的AI芯片。
AI硬件市场的10大公司
以下是按字母顺序列出的AI硬件和芯片制造公司。
Alphabet
Alphabet是谷歌的母公司,拥有多种移动设备、数据存储和云基础设施产品。Cloud TPU v5p专为训练大型语言模型和生成性AI而设计。每个TPU v5p模块有8,960个芯片,每个芯片的带宽为4,800 Gbps。
Alphabet专注于生产强大的AI芯片,以满足大型项目的需求。它还推出了Multislice,这是一种性能扩展技术。虽然硬件限制通常会限制软件扩展,但在TPU v4上,运行显示出多达60%的模型浮点运算每秒的利用率。
AMD
AMD推出了其下一代Epyc和Ryzen处理器。该公司在2024年发布了最新产品——Zen 5 CPU微架构。
AMD在2023年12月发布了MI300A和MI300X AI芯片。MI300A配备了228个计算单元和24个CPU核心,而MI300X芯片则是具有304个计算单元的GPU型号。MI300X在内存容量和带宽上与Nvidia的H100相抗衡。
Apple
Apple Neural Engine是基于Apple芯片的专用核心,进一步提升了该公司的AI硬件设计和性能。Neural Engine促成了M1芯片的推出,用于MacBook。与前一代相比,搭载M1芯片的MacBook在整体性能上快3.5倍,在图形性能上快5倍。
在M1芯片成功后,Apple宣布推出后续代产品。截至2024年,Apple已发布M4芯片,但目前仅在iPad Pro中可用。M4芯片的神经引擎速度是M1芯片的三倍,CPU速度比M2快1.5倍。
AWS
AWS已将重点从云基础设施转向芯片。其Elastic Compute Cloud Trn1实例专为深度学习和大规模生成模型而设计。它们使用AWS Trainium芯片作为AI加速器。
trn1.2xlarge实例是首个版本,配备一个Trainium加速器、32 GB实例内存和12.5 Gbps网络带宽。现在,亚马逊推出了trn1.32xlarge实例,配备16个加速器、512 GB实例内存和1,600 Gbps带宽。
AWS Inferentia是一款机器学习芯片,能够以低成本生成高性能推理预测。Trainium加速器用于训练模型,而Inferentia加速器则用于部署模型。
Cerebras Systems
Cerebras通过发布其第三代晶圆级引擎WSE-3而崭露头角。WSE-3被认为是地球上最快的处理器,拥有900,000个AI核心,每个核心可访问每秒21 PB的内存带宽。
与Nvidia的H100芯片相比,WSE-3的带宽大7000倍,片上内存多880倍,核心数多52倍。该WSE-3芯片的面积也大57倍,因此在服务器中需要更多的空间来容纳该芯片。
IBM
在其首款专用AI芯片Telum成功后,IBM着手设计一款强大的后续产品,以与竞争对手抗衡。
在2022年,IBM创建了人工智能单元。该AI芯片是专门构建的,性能优于一般的通用CPU。它拥有超过230亿个晶体管,配备32个处理核心。它的内存需求远低于前几代产品,效率更高。
IBM正在研发NorthPole AI芯片,目前尚无发布日期。NorthPole与IBM的TrueNorth芯片不同,NorthPole架构旨在提高能效,减少芯片占用的空间并降低延迟。NorthPole芯片将标志着能效芯片的新纪元。
Intel
Intel在CPU市场上凭借其AI产品赢得了声誉。
Xeon 6处理器于2024年推出,并已运送至数据中心。这些处理器每个插槽最多可提供288个核心,从而加快处理速度,并增强同时处理多个任务的能力。
Intel还发布了Gaudi 3 GPU芯片,与Nvidia的H100 GPU芯片竞争。Gaudi 3芯片训练模型的速度快1.5倍,输出结果快1.5倍,并且比Nvidia的H100芯片更省电。
Nvidia
Nvidia在AI硬件市场成为强劲竞争者,其估值在2023年初超过1万亿美元。该公司的当前工作包括其A100芯片和用于数据中心的Volta GPU。这两款产品是资源密集型模型的关键技术。Nvidia还为游戏领域提供AI驱动的硬件。
在2023年8月,Nvidia宣布其最新的技术突破,推出全球首款HBM3e处理器。它揭示了Grace Hopper平台,这是一款超芯片,带宽是当前一代技术的三倍,内存容量超过三倍。其设计专注于在加速AI时代提升可扩展性和性能。
该公司的NVLink技术可以将Grace Hopper超芯片连接到其他超芯片。NVLink使多个GPU能够通过高速互连进行通信。
Blackwell B200 AI芯片是一个GPU微架构,已被推迟,预计将在2024年底发布,B200A计划在2025年推出。Nvidia还计划在2026年推出新的加速器Rubin。
Qualcomm
尽管与同行相比,Qualcomm在AI硬件市场相对较新,但其在电信和移动领域的经验使其成为一个有前景的竞争者。
Qualcomm的Cloud AI 100芯片在一系列测试中超越了Nvidia H100。其中一项测试是查看每个芯片每瓦特能执行的服务器查询数量。Qualcomm的Cloud AI 100芯片每瓦特完成227个服务器查询,而Nvidia H100为108个。在目标检测中,Cloud AI 100芯片的查询每瓦特为3.8,而Nvidia H100为2.4。
在2024年,该公司发布了Snapdragon 8s Gen 3移动芯片。该芯片支持30个AI模型,并具有生成性AI功能,如图像生成和语音助手。
Qualcomm还推出了Snapdragon X Plus,这是一款具有AI功能的笔记本处理器。该处理器在功耗更低的情况下,CPU性能更快,与竞争产品形成竞争。
Tenstorrent
Tenstorrent专注于为AI构建计算机,由设计AMD Zen芯片架构的Jim Keller领导。Tenstorrent有多款硬件产品,包括其Wormhole处理器和Galaxy服务器,构成Galaxy Wormhole服务器。
Wormhole n150和n300是Tenstorrent的可扩展GPU。n300几乎在每个规格上都比n150提升了一倍。这些芯片用于网络AI,安装在Galaxy模块和服务器中。每个服务器最多可容纳32个Wormhole处理器、2,560个核心和384 GB的GDDR6内存。
编辑注:本文于2024年8月更新,按字母顺序列出公司,更新各自提供的AI芯片,并增加了两家竞争的AI芯片公司。
Devin Partida是ReHack.com的主编和自由撰稿人,擅长业务科技、医疗科技、金融科技、物联网和网络安全等领域。
Kelly Richardson是TechTarget数据中心网站的编辑。