查看原文
其他

从数周提速至几分钟!英伟达,重磅宣布!

周春媚 证券时报
2024-08-09
英伟达又有新动作。


6月2日,英伟达在Computex(台湾国际电脑展)上宣布,全球2800万开发者可以下载NVIDIA NIM(Nvidia Inference Microservices),将AI模型部署在云、数据中心或工作站上,轻松地构建Copilot(一种AI助理)、ChatGPT聊天机器人等生成式AI应用。这一产品将使得模型部署时间从以前的数周缩短至短短的几分钟。

NVIDIA NIM是英伟达今年 3 月推出的经过优化的云原生微服务,旨在方便各种规模的企业部署AI服务。证券时报记者查询英伟达官网发现,NVIDIA NIM已在官网上线,可供用户下载和部署。


除此以外,英伟达创始人兼首席执行官黄仁勋还宣布,新一代AI芯片与超级计算平台Blackwell芯片现已开始投产,将在2025年推出Blackwell Ultra AI芯片,下一代AI平台名称为Rubin,目前还正在开发中,预计于2026年发布,该平台将采用HBM4记忆芯片。

Blackwell是被英伟达寄予厚望的新的业绩增长引擎。在5月22日发布远超市场预期的财报后,黄仁勋在财报电话会议上指出,Blackwell架构芯片将于二季度发货,并将于三季度增产,预计今年Blackwell架构芯片将为公司带来大量收入。

数百家合作伙伴已嵌入 NIM

“每家企业都希望将生成式AI添加到其运营中,但并非每家企业都拥有一支专门的AI研究团队。NVIDIA NIM 集成到各个平台中,可供各个开发者使用,可在各个地方运行,它正在帮助技术行业让每个组织都能使用生成式AI。”英伟达创始人兼首席执行官黄仁勋表示。据介绍,NVIDIA NIM 可以通过提供一种简单、标准化的方式将生成式 AI 添加到其应用程序中,大大提高了开发人员的工作效率。

据了解,NIM是预先构建的,目前有超过40个模型可在ai.nvidia.com上作为NIM的端点供开发者体验。记者在英伟达官网中看到,其展示的模型中包括了Databricks DBRX、Google 的开放模型 Gemma、Meta Llama 3、Microsoft Phi-3、Mistral Large、Mixtral 8x22B 和 Snowflake Arctic等模型。


英伟达表示,开发人员可以从开源社区平台Hugging Face访问适用于 Meta Llama 3 模型的NVIDIA NIM微服务,只需单击几下即可使用Hugging Face推理端点访问和运行 Llama 3 NIM。具体而言,企业可以使用NIM运行用于生成文本、图像和视频、语音和数字人类的应用程序。

同时,英伟达也公布了自己长长的AI生态系统合作伙伴名单,表示已经有数百AI生态系统合作伙伴嵌入NIM,富士康、劳氏、西门子等企业在制造业、医疗保健、金融服务、零售、客户服务等领域均使用NIM进行生成式AI的应用。

具体而言,富士康正在使用NIM开发领域特定大语言模型,以嵌入到其AI工厂的各种内部系统和流程中,以实现智能制造、智能城市和智能电动汽车;家居装修公司劳氏正在利用NIM推理微服务来提升员工和客户的体验;西门子正在将其运营技术与NIM微服务集成,以应对车间AI工作负载,且正在使用NIM为机器操作员构建其工业副驾驶的本地版本。

值得注意的是,英伟达还专门提到,有数十家医疗保健公司正在部署NIM,为包括手术规划、数字助理、药物发现和临床试验优化等在内的应用领域的生成性AI推理提供支持。作为全球芯片巨头,英伟达近年来在一级市场上可谓动作频频,除了聚焦AI领域的标的以外,还格外钟情于医药生物赛道,投资了多家在AI制药、基因编辑、精准医疗等方面具有领先技术的公司。据MedAlpha数据库显示,自2023年以来,英伟达已先后投资了9家生物初创公司,所投金额高达21.5亿美元。

华泰证券研报表示,“NIM的推出不仅降低了新AI模型的初始训练和推理成本,也是英伟达鼓励客户购买服务器并注册企业版服务的一部分策略。公司强调,NIM软件将进一步简化人工智能在GPU配备的笔记本电脑上的运行,而非仅限于云服务器。公司认为NIM将进一步提升部署AI的易用性,并巩固客户对英伟达芯片的依赖,但我们认为此举或将进一步跟云厂商的业务有所重叠。”

Blackwell芯片已开始投产

除了让企业更易部署AI模型的NVIDIA NIM以外,黄仁勋在演讲中还透露英伟达Blackwell芯片已开始投产,并将在2025年推出Blackwell Ultra AI芯片。下一代AI平台名称为Rubin,该平台将采用HBM4内存。

今年3月,英伟达在GTC大会上展示了新一代AI芯片与超级计算平台Blackwell。据悉,英伟达的第一款Blackwell芯片名为GB200,宣称是目前“全球最强大的芯片”,该架构GPU具有2080亿个晶体管,制造工艺为专门定制的双倍光刻极限尺寸的台积电4NP工艺。

华泰证券研报分析称,GB200由2个B200 GPU 和1个Grace CPU 组成,推理大语言模型性能比H100提升30倍,成本和能耗降至其1/25。此外,训练1.8万亿参数模型所需的资源,从8000个Hopper GPU和15兆瓦电力,降低到2000个Blackwell GPU和4兆瓦电力。GB200计划于今年晚些时候上市,亚马逊AWS已计划采购2万片GB200芯片,能部署高达27万亿参数的模型。

前不久披露的2025财年第一财季财报显示,英伟达实现营收260亿美元,环比增长18%,同比增长262%;净利润148.8亿美元,同比增长628%,营收和净利润皆大超预期,再一次引燃了市场对人工智能的期待,也让英伟达的股价接连创下新高。

分业务来看,英伟达数据中心业务最受市场关注,其业绩也不负众望,实现营业收入226亿美元,与上年同期相比增长427%,与上一财季相比增长34%。英伟达表示,这得益于公司Hopper系列图形处理器的发货。对于未来新芯片的计划,在财报电话会议上,黄仁勋曾为Blackwell芯片的供应给出了一个详细的时间轴:“Blackwell芯片将在今年第二季度出货,在第三季度增产,第四季度投放到数据中心,预计Blackwell今年将为公司带来大量收入”。

国金证券研报认为,英伟达下一波业绩释放即将到来。AI训练和推理需求推动Hopper平台上量,同时AIGC从云厂商向消费互联网等更多类型拓展,创造多个数十亿美元的垂直市场。Blackwell平台实现全面投产,为万亿参数级AIGC奠定了基础。同时Spectrum-X的迭代,使得超大规模AI能够进入以太网专用数据中心。下游需求持续上行叠加新GPU平台顺利投产,公司龙头地位稳定,业绩新爆发点已现。

责编:万健祎

校对:陶谦




版权声明



证券时报各平台所有原创内容,未经书面授权,任何单位及个人不得转载。我社保留追究相关行为主体法律责任的权利。


转载与合作可联系证券时报小助理,微信ID:SecuritiesTimes



END

点击关键字可查看

潜望系列深度报道丨股事会专栏丨投资小红书丨e公司调查时报会客厅十大明星私募访谈丨实探沪深楼市!售楼处大排长龙,市场有望进入政策兑现期国家医保局出手!这家百亿A股公司被约谈 丨中东突发!以总理发声:不摧毁哈马斯就不会永久停火深圳市委书记与雷军、李斌会谈!惨烈!连续20个跌停,超70万股民踩坑!余承东:不卷价格!雷军:将双班制生产!车圈顶流汇聚深圳,记者实探现场热搜霸屏!那英跑调、孙楠拉爆收视率,芒果超媒股价一度暴涨,超15家品牌“申请出战”

继续滑动看下一个
证券时报
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存