You dont have javascript enabled! Please enable it!

2024年10家顶级人工智能硬件和芯片制造公司

AI技术2个月前更新 gy.J
29 0 0

随着AI硬件的流行和进步,市场竞争变得愈发激烈。AI硬件公司必须快速推出产品,以确保其在市场上拥有最新和最有效的产品。

尽管这10家AI硬件公司专注于CPU和数据中心技术,但随着市场的扩展,它们的专业领域也逐渐扩大。现在,这些公司正在竞争以打造市场上最强大和高效的AI芯片。

AI硬件市场的10大公司

以下是按字母顺序列出的AI硬件和芯片制造公司。

Alphabet

Alphabet是谷歌的母公司,拥有多种移动设备、数据存储和云基础设施产品。Cloud TPU v5p专为训练大型语言模型和生成性AI而设计。每个TPU v5p模块有8,960个芯片,每个芯片的带宽为4,800 Gbps。

Alphabet专注于生产强大的AI芯片,以满足大型项目的需求。它还推出了Multislice,这是一种性能扩展技术。虽然硬件限制通常会限制软件扩展,但在TPU v4上,运行显示出多达60%的模型浮点运算每秒的利用率。

AMD

AMD推出了其下一代Epyc和Ryzen处理器。该公司在2024年发布了最新产品——Zen 5 CPU微架构。

AMD在2023年12月发布了MI300A和MI300X AI芯片。MI300A配备了228个计算单元和24个CPU核心,而MI300X芯片则是具有304个计算单元的GPU型号。MI300X在内存容量和带宽上与的H100相抗衡。

Apple

Apple Neural Engine是基于Apple芯片的专用核心,进一步提升了该公司的AI硬件设计和性能。Neural Engine促成了M1芯片的推出,用于MacBook。与前一代相比,搭载M1芯片的MacBook在整体性能上快3.5倍,在图形性能上快5倍。

在M1芯片成功后,Apple宣布推出后续代产品。截至2024年,Apple已发布M4芯片,但目前仅在iPad Pro中可用。M4芯片的神经引擎速度是M1芯片的三倍,CPU速度比M2快1.5倍。

AWS

AWS已将重点从云基础设施转向芯片。其Elastic Compute Cloud Trn1实例专为和大规模生成模型而设计。它们使用AWS Trainium芯片作为AI加速器。

trn1.2xlarge实例是首个版本,配备一个Trainium加速器、32 GB实例内存和12.5 Gbps网络带宽。现在,亚马逊推出了trn1.32xlarge实例,配备16个加速器、512 GB实例内存和1,600 Gbps带宽。

AWS Inferentia是一款芯片,能够以低成本生成高性能推理预测。Trainium加速器用于训练模型,而Inferentia加速器则用于部署模型。

Cerebras Systems

Cerebras通过发布其第三代晶圆级引擎WSE-3而崭露头角。WSE-3被认为是地球上最快的处理器,拥有900,000个AI核心,每个核心可访问每秒21 PB的内存带宽。

与Nvidia的H100芯片相比,WSE-3的带宽大7000倍,片上内存多880倍,核心数多52倍。该WSE-3芯片的面积也大57倍,因此在服务器中需要更多的空间来容纳该芯片。

IBM

在其首款专用AI芯片Telum成功后,IBM着手设计一款强大的后续产品,以与竞争对手抗衡。

在2022年,IBM创建了单元。该AI芯片是专门构建的,性能优于一般的通用CPU。它拥有超过230亿个晶体管,配备32个处理核心。它的内存需求远低于前几代产品,效率更高。

IBM正在研发NorthPole AI芯片,目前尚无发布日期。NorthPole与IBM的TrueNorth芯片不同,NorthPole架构旨在提高能效,减少芯片占用的空间并降低延迟。NorthPole芯片将标志着能效芯片的新纪元。

Intel

Intel在CPU市场上凭借其AI产品赢得了声誉。

Xeon 6处理器于2024年推出,并已运送至数据中心。这些处理器每个插槽最多可提供288个核心,从而加快处理速度,并增强同时处理多个任务的能力。

Intel还发布了Gaudi 3 GPU芯片,与Nvidia的H100 GPU芯片竞争。Gaudi 3芯片训练模型的速度快1.5倍,输出结果快1.5倍,并且比Nvidia的H100芯片更省电。

Nvidia

Nvidia在AI硬件市场成为强劲竞争者,其估值在2023年初超过1万亿美元。该公司的当前工作包括其A100芯片和用于数据中心的Volta GPU。这两款产品是资源密集型模型的关键技术。Nvidia还为游戏领域提供AI驱动的硬件。

在2023年8月,Nvidia宣布其最新的技术突破,推出全球首款HBM3e处理器。它揭示了Grace Hopper平台,这是一款超芯片,带宽是当前一代技术的三倍,内存容量超过三倍。其设计专注于在加速AI时代提升可扩展性和性能。

该公司的NVLink技术可以将Grace Hopper超芯片连接到其他超芯片。NVLink使多个GPU能够通过高速互连进行通信。

Blackwell B200 AI芯片是一个GPU微架构,已被推迟,预计将在2024年底发布,B200A计划在2025年推出。Nvidia还计划在2026年推出新的加速器Rubin。

Qualcomm

尽管与同行相比,Qualcomm在AI硬件市场相对较新,但其在电信和移动领域的经验使其成为一个有前景的竞争者。

Qualcomm的Cloud AI 100芯片在一系列测试中超越了Nvidia H100。其中一项测试是查看每个芯片每瓦特能执行的服务器查询数量。Qualcomm的Cloud AI 100芯片每瓦特完成227个服务器查询,而Nvidia H100为108个。在目标检测中,Cloud AI 100芯片的查询每瓦特为3.8,而Nvidia H100为2.4。

在2024年,该公司发布了Snapdragon 8s Gen 3移动芯片。该芯片支持30个AI模型,并具有生成性AI功能,如图像生成和语音助手。

Qualcomm还推出了Snapdragon X Plus,这是一款具有AI功能的笔记本处理器。该处理器在功耗更低的情况下,CPU性能更快,与竞争产品形成竞争。

Tenstorrent

Tenstorrent专注于为AI构建计算机,由设计AMD Zen芯片架构的Jim Keller领导。Tenstorrent有多款硬件产品,包括其Wormhole处理器和Galaxy服务器,构成Galaxy Wormhole服务器。

Wormhole n150和n300是Tenstorrent的可扩展GPU。n300几乎在每个规格上都比n150提升了一倍。这些芯片用于网络AI,安装在Galaxy模块和服务器中。每个服务器最多可容纳32个Wormhole处理器、2,560个核心和384 GB的GDDR6内存。

编辑注:本文于2024年8月更新,按字母顺序列出公司,更新各自提供的AI芯片,并增加了两家竞争的AI芯片公司。

Devin Partida是ReHack.com的主编和自由撰稿人,擅长业务科技、医疗科技、金融科技、物联网和网络安全等领域。

Kelly Richardson是TechTarget数据中心网站的编辑。

© 版权声明

外贸建站推广

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...