5月29日周一,英伟达CEO黄仁勋在COMPUTEX大会上抛出了大量重磅信息,包括新的机器人设计、游戏功能、广告服务和网络技术。其中,最引人注目的当属搭载256颗GH200 Grace Hopper超级芯片的全新DGX GH200人工智能超级计算机,堪称“算力杀手”。
Google Cloud、Meta 和 Microsoft 是首批有望获得 DGX GH200 访问权限的客户,以探索其生成 AI 工作负载的能力。值得注意的是,算力的突破将让AI应用再次大幅提升,AI赛道有望迈向下一个节点。在周一的一次演讲中,黄仁勋认为,科技行业的传统架构的改进速度已不足以跟上复杂的计算任务。为了充分发挥 AI 的潜力,客户越来越多地转向加速计算和 Nvidia 制造的 GPU。黄仁勋说:
我们已经到了生成人工智能的临界点。从此,世界的每一个角落都会对计算能力产生需求。
有评论称,一连串的公告凸显了英伟达从GPU制造商向AI热潮中心公司的转变。
上周,英伟达大幅上调了当前季度的指引,超过了分析师的预期由于对处理人工智能任务的数据中心芯片的强劲需求,预计将增加近 40 亿美元。这一指引推动该股创下历史新高,英伟达的估值接近 1 万亿美元,这是芯片行业公司首次达到该市值水平。
在周一的会议上,黄仁勋发布的主要内容包括:
Nvidia 面向游戏玩家的 GForce RTX 4080 Ti GPU 现已全面投产并开始量产。
黄仁勋宣布推出面向游戏的 NVIDIA Avatar Cloud Engine (ACE),这是一项可定制的 AI 模型代工服务,可为游戏开发者提供预训练模型。它将通过 AI 驱动的语言交互赋予非玩家角色更多个性。
NVIDIA Cuda 计算模型现在服务于 400 万开发者和 3000 多个应用程序。 Cuda 已经被下载了 4000 万次,其中仅去年一年就达到了 2500 万次。
GPU服务器HGX H100已经全面量产,这是世界上第一台搭载Transformer引擎的计算机。
黄仁勋称英伟达在 2019 年以 69 亿美元收购超级计算机芯片制造商 Mellanox 是其做出的“最伟大的战略决策之一”。
下一代 Hopper GPU 的生产将于 2024 年 8 月开始,即第一代开始生产两年后。
Nvidia 的 GH200 Grace Hopper 现已全面投产。 Superchip 提升了 4 PetaFIOPS TE、72 个通过芯片到芯片链路连接的 Arm CPU、96GB HBM3 和 576 个 GPU 内存。黄仁森将其描述为世界上第一款具有巨大内存的加速计算处理器:“这是一台计算机,而不是芯片。”它专为高弹性数据中心应用而设计。
如果Grace Hopper的显存不够用,Nvidia有解决方案——DGX GH200。它的工作原理是首先以 900GB 的传输速度将 8 个 Grace Hoppers 与 3 个带有 NVLINK 开关的 Pod 连接起来,然后将这些组件中的 32 个连接在一起,再加上一层开关,总共连接 256 个 Grace Hopper 芯片。由此产生的 ExaFLOPS Transformer Engine 具有 144 TB 的 GPU 内存,可用作巨型 GPU。黄仁勋表示,Grace Hopper 的速度非常快,可以在软件中运行 5G 堆栈。谷歌云、Meta 和微软将率先获得 DGX GH200 的访问权限,并将对其功能进行研究。
Nvidia 和软银已结成合作伙伴关系,将 Grace Hopper 超级芯片引入软银的新日本的分布式数据中心。这些将能够在多租户通用服务器平台中托管生成人工智能和无线应用程序,从而降低成本和能源。
SoftBank 和 Nvidia 的合作伙伴关系将基于 Nvidia MGX 参考架构,该架构目前正在一些公司中使用。它为系统制造商提供模块化参考架构,帮助他们构建 100 多个用于 AI、加速计算和通用用途的服务器变体。合作的公司包括华擎Rack、华硕、技嘉、和硕、QCT和Supermicro。
黄仁勋发布了 Spectrum-X 加速网络平台,以提高基于以太网的云的速度。它包括具有 128 个端口、每秒 400GB 和每秒 51.2TB 传输速度的 Spectrum 4 交换机。 Huang 表示,该交换机旨在实现新型以太网,并为自适应路由、隔离性能和结构内计算进行端到端设计。它还包括 Bluefield 3 Smart Nic,它连接到 Spectrum 4 交换机以执行拥塞控制。
全球最大的广告公司WPP已与Nvidia合作开发基于内容引擎在 Nvidia Omniverse 上。它将能够制作用于广告的照片和视频内容。 “生成式人工智能正在以极快的速度改变广告业,这项新技术将改变知名品牌创造商业内容的方式,”WPP 首席执行官马克里德在一份声明中表示。据 WPP 称,新平台将使 WPP 的创意团队能够将来自 Adobe 和 Getty Images 等公司的内容与生成人工智能相结合,从而更高效、更大规模地制作广告内容。该公司补充说,这将使公司能够创建大量的广告内容,例如文本、图像或视频,以进行定制和更加身临其境。
机器人平台 Nvidia Isaac ARM 现在可供任何想要构建机器人的人使用,并且是从芯片到传感器的全堆栈。黄说,Isaac ARM 从称为 Nova Orin 的芯片开始,是机器人技术的第一个完整参考堆栈。
发布会上,黄仁勋还展示了生成式AI输入文本,再输出其他媒体内容的能力。他要求配上适合他早晨心情的音乐,在另一篇帖子中,他列出了一些歌词,然后使用 AI 将这个想法变成了一首活泼的流行歌曲:
Everyone Now All are creators。
值得注意的是,在本次发布会上,黄仁勋发起了一场“挑战赛”到传统的 CPU 服务器集群。他直言,GPU服务器在未来人工智能和加速计算方向上具有更强大的优势。
黄仁勋解释说,传统上最重要的计算机或服务器CPU,这个市场的主要参与者包括英特尔和AMD。但随着需要大量算力的AI应用的出现,GPU将成为主角,而英伟达在当前全球AI GPU市场占据主导地位。
黄仁勋在演讲中展示的例子,训练一个LLM大语言模型,需要一个由960个CPU组成的服务器集群,耗资约1000万美元,耗电量11吉瓦时。相比之下,以同样的 1000 万美元成本构建一个 GPU 服务器集群,将训练 44 个大型 LLM 模型,功耗仅为 3.2 吉瓦时。
如果同样消耗11吉瓦时的电量,那么GPU服务器集群可以实现150倍的加速,训练150个LLM大模型,占用面积更小。而当用户只想训练一个大型LLM模型时,他们只需要一台成本约为40万美元、耗电量为0.13吉瓦时的GPU服务器。
也就是说,相对于CPU服务器,GPU服务器可以以4%的成本和1.2%的功耗训练一个LLM,将带来巨大的成本节约。
根据Trend Force的数据,2022年搭载GP GPU的AI服务器年出货量将占所有服务器的近1%,在ChatGPT等人工智能应用的加持下,AI服务器出货量将预计同比增长8%,2022-2026年出货量CAGR有望达到10.8%。用于AI服务器的GPU主要基于该公司的H100、A100、A800(主要运往中国)和AMD MI250、MI250X系列,而Nvidia与AMD的比例约为8:2。
根据IDC预测,2026年全球服务器出货量为1877万台,AI服务器占比将逐年提升1%。同时,AI服务器中的GPU数量将逐年增加0.5个百分点。 ,GPU单价逐年上涨2000美元。基于上述基本预测,2026年全球数据中心GPU市场规模有望达到224亿美元。
澳洲中文论坛热点
- 悉尼部份城铁将封闭一年,华人区受影响!只能乘巴士(组图)
- 据《逐日电讯报》报导,从明年年中开始,因为从Bankstown和Sydenham的城铁将因Metro South West革新名目而
- 联邦政客们具有多少房产?
- 据本月早些时分报导,绿党副首领、参议员Mehreen Faruqi已获准在Port Macquarie联系其房产并建造三栋投资联