英伟达发布ChatGPT专用GPU,性能提升10倍,还推出云服务,普通企业也能训练LLM...
Pine 发自 凹非寺
量子位 | 公众号 QbitAI
“AI的iPhone时刻已至”,英伟达或成最大赢家。
在GTC2023大会上,黄仁勋接连放出大招:
不仅发布了ChatGPT专用GPU,比之前就能实时处理ChatGPT的HGX A100快了10倍;
还公布了其在芯片领域的进展,推出了新的cuLitho软件库,使光刻计算速度整体提高了40倍。
从老黄的言语中也能得知,当下各种爆红的AIGC产品:ChatGPT、Stable Diffusion、DALL-E等都能见到英伟达的身影。
而去年年末至今,ChatGPT爆火,也顺势拉动了英伟达的股价,年初至今就上涨83%。
目前,英伟达的市值为6471亿美元。
会上及会后采访中,老黄的言语之中也是透露着对AI生成内容的褒奖:
AI是用人类语言编程的新型计算机,未来每个人都将是程序员。
话不多说,会上具体都有哪些亮点,一起盘点下~
发布ChatGPT专用GPU
会前,网友们对GTC的猜测都集中在ChatGPT上。
而英伟达,也是毫不吝啬,不止ChatGPT,AIGC方面直接一把推出了四种针对AI任务的推理平台:
L4 Tensor Core GPU
L40 GPU
H100 NVL GPU
Grace Hopper超级芯片
其中,H100 NVL GPU是英伟达这次推出的ChatGPT的专用GPU,它是基于去年已经发布的H100的改进版本:配备双GPU NVLink,将两张拥有94GB HBM3显存的PCIe H100 GPU拼接在一起。
性能的话,老黄形象地做了个对比:
相较于目前唯一可以实时处理ChatGPT的HGX A100,一台搭载四对H100和双NVLINK的标准服务器能将速度提升10倍,并且还可以将大语言模型的处理成本降低一个数量级。
期间,老黄还展示了自己亲自把首款签名版DGX交付给OpenAI的画面。
然后再来说下其他三个推理平台:
L4是专门针对AI生成视频设计的一款通用GPU,它提供的视频性能比CPU高出整整120倍,能效提高了99%。
L40则是用在图像生成上的GPU,它能对AI生成2D、3D图像进行优化,相较于英伟达的云推理GPU T4,性能提升了10倍。
Grace Hopper超级芯片用在推荐系统和大型语言模型AI数据库上,图推荐模型、向量数据库和图神经网络都可以选择这款芯片。
更具体一点,通过900GB/s高速芯片对芯片的接口,Grace Hopper超级芯片可连接Grace GPU和Hopper GPU,而Grace和Hopper正是处理大型语言数据集的理想选择。
到这里,你以为关于ChatGPT的相关产品就没了?
大NO特NO。
在ChatGPT这块儿,英伟达还致力于下沉市场,联合微软Azure、Google GCP和Oracle OCI三家云厂商合作推出了DGX Cloud。
普通企业也能训练LLM。
也就是说,想要训练像ChatGPT的大语言模型,可以直接在网络上租赁DGX云服务,这样一来客户就能将英伟达DGX AI超级计算机实时接入公司。
英伟达提供的DGX服务器,包含8个H100或A100图形处理器和640GB内存,A100层的价格为每月36999美元。
而直接购买一个实体DGX服务器,就要花费20万美元,并且微软当时为了训练新必应也是斥资数亿美元购买了数万块A100芯片。
用cuLitho加速芯片创新
ChatGPT等一众AIGC产品毫无疑问已经成为当前的AI圈的宠儿,不过在英伟达眼中ChatGPT只是一个起点。
GTC大会上,老黄放出了另一枚重磅级“核弹”,把加速计算引入到光刻领域——推出英伟达cuLitho计算光刻库。
cuLitho计算光刻库是啥?
一言以蔽之,cuLitho是一个可以加速光刻基础计算的算法库,能够很大程度上提升光刻计算的速度,并且节省能耗。
老黄表示,目前计算光刻每年都需要消耗数百亿CPU时间。而运行在GPU上cuLitho,可以将目前光刻技术的性能提升40倍,功耗降低至此前的1/9。
甚至在某种程度上cuLitho还可以为行业2nm工艺奠定基础。
目前,英伟达已经与台积电、ASML和Synopsys等芯片厂商达成合作,后续芯片生产中,也会引入cuLitho这项AI技术。
其中,台积电CEO魏哲家称赞,cuLitho为台积电在芯片制造领域部署反向光刻技术和深度学习等光刻解决方案开辟了新的可能性。
老黄也在会上预告,台积电将在今年6月份的2nm芯片生产中引入cuLitho。
ASML首席执行官Peter Wennink也做出计划,让所有的计算光刻软件产品都支持GPU,同时也表示与英伟达在GPU和cuLitho上的合作会给计算光刻带来巨大的好处。
Synopsys公司这边,在cuLitho平台上运行了Synopsys OPC软件,性能直接得到了从几周到几天的提升。
一些其他亮点
除了上面提到的这些,GTC大会上,英伟达还公布了一些其他合作项目:
比如说生成式AI方面有Adobe、Getty Images和Shutterstock。
医学方面,英伟达宣布了新的合作伙伴Medtronic,黄仁勋透露,目前正在一起构建一个医疗方面的AI平台,涵盖手术引导和机器人辅助手术。
……
如果还想了解更多关于GTC2023的内容,可以戳下面链接查看直播回放。
直播回放:
https://www.youtube.com/watch?v=DiGB5uAYKAg
参考链接
[1]https://www.theverge.com/23649329/nvidia-dgx-cloud-microsoft-google-oracle-chatgpt-web-browser
[2]https://nvidianews.nvidia.com/news/nvidia-asml-tsmc-and-synopsys-set-foundation-for-next-generation-chip-manufacturing
— 完 —
3月29日「中国AIGC产业峰会」
抢票开启
「中国AIGC产业峰会」定档3月29日,线下会场抢票开启!
百度袁佛玉、智源林咏华、澜舟科技周明、小冰徐元春、科大讯飞高建清、启元世界袁泉、云舶科技梅嵩、特赞王喆、微软关玮雅、源码资本黄云刚、元语智能朱雷、无界Ai马千里、Tiamat青柑、峰瑞资本陈石等来自产学研界大咖嘉宾,还有重磅嘉宾陆续确认中。
扫描下方二维码,报名峰会线下会场啦~
点这里
▌英伟达宣布 Tesla T4 GPU 新品:基于图灵架构,加速 AI 运算 近日,英伟达发布了一款专为 AI 推理工作而设计的显卡,它就是可以加速语音.视频.搜索引擎.图像神经网络的 Tesla T ... 夏乙 发自 凹非寺 量子位 出品 | 公众号 QbitAI 英伟达的新杀器又来了. 刚刚,在GTC 2018大会上,黄仁勋发布全球最大GPU. 他说的是DGX-2. DGX-2能够实现每秒2千万亿次浮 ... 在选择计算资源时总是纠结不知道哪种显卡好用? 请看下面一组对比: 数据来源: link. 实测效果:训练深层神经网络的时候,V100比P100快大约2倍. 综上,V100算力更强劲!预算够的话就选V1 ... 导语 1.GPU的价值不止体现在深度学习,在高性能计算.人工智能.生物信息.分子模拟.计算化学.材料力学.系统仿真.流体力学.机械设计.生物制药.航空动力.地质勘探.气候模拟等领域,算法越来越复杂,需 ... 梦晨 晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI 30系显卡买不到?英伟达老黄刚刚又发布一款"空气CPU". 不过就算你抢不到也没关系,因为这款CPU专门为服务器 ... 来源:雷锋网 由于疫情缘故,本该在今年3月英伟达(NVIDIA)GTC 2020上发布的安培(Ampere)架构曝光多次却一直未发布. 5月15日,英伟达CEO黄仁勋发布了英伟达新一代GPU架构安培, ... 性能显著提升:NVIDIA 英伟达 发布 第七代 GPU架构 Volta 2017-05-11 18:31:54 35点赞 42收藏 87评论 Microsoft(微软)Build2017开发者大会正 ... 2002年3月英伟达发布核弹GPU与大算力自动驾驶芯片 英伟达核弹级GPU:800亿晶体管,20块承载全球互联网流量 2022年3 月 22 日,在英伟达 GTC2022 上,英伟达介绍了 Hoppe ... 聚焦源代码安全,网罗国内外最新资讯! 编译:代码卫士 英伟达发布 Windows 版本的 GPU 显示驱动安全更新,修复了25个漏洞,含7个高危漏洞,其中1个高危漏洞可导致攻击者实现代码执行和权限提 ...英伟达发布ChatGPT专用GPU,性能提升10倍,还推出云服务,普通企业也能训练LLM...相关推荐
最新文章
热门文章