您现在的位置是:首页 > 房产 >正文

流水的ChatGPT,铁打的英伟达

发布时间:2023-03-24 16:26:10国腾骅来源:

导读 当我们在谈论AI将大幅提升社会生产力的时候,背后是英伟达的AI芯片在为ChatGPT们提供生产力文 | 恩豪‍‍在ChatGPT惊艳全球,类ChatGPT层...


当我们在谈论AI将大幅提升社会生产力的时候,背后是英伟达的AI芯片在为ChatGPT们提供生产力


文 | 恩豪‍‍

在ChatGPT惊艳全球,类ChatGPT层出不穷之际,其背后的英伟达才是最大的赢家。

上个月,英伟达创始人兼CEO黄仁勋在演讲中兴奋地谈论ChatGPT带来的变化,感叹这是“人工智能的iPhone时刻”。

在21日晚的英伟达的年度活动GTC上,黄仁勋带来了包括针对生成式AI图像处理、大模型处理的四款AI推理芯片,并且又把“AI的iPhone时刻”这句话重复了三遍。

生成式AI的爆火,AI的iPhone时刻都离不开AI芯片。微软用ChatGPT震惊了世界,也作证了英伟达的行业地位。


铁打的英伟达

2023春季GTC大会中,黄仁勋围绕AI、量子计算、芯片等前沿科技,发布了一系列前沿技术和产品。

全新的GPU推理平台包括4种不同配置,针对不同工作负载进行优化,分别对应了AI视频加速、图像生成加速、大型语言模型(LLM)加速和推荐系统和LLM数据库。包括:L4 Tensor Core GPU、L40 GPU、H100 NVL GPU和Grace Hopper超级芯片。

其中,H100 NVL是专门为LLM设计的GPU,采用了Transformer加速解决方案,可用于处理ChatGPT。相比于英伟达HGX A100,一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。


目前,能够处理拥有1750亿参数的GPT-3等大型语言模型的只有A100,而GPT-4等参数量更大的模型则需要更多A100的堆叠。性能方面,一台8卡的H100 NVL的速度是目前标配8卡A100服务器的10倍。这不仅意味着速度的提升,也将降低大模型公司在算力方面的成本,毕竟GPT-3训练一次的成本约为140万美元,而对于一些更大的LLM模型,训练成本介于200万美元至1200万美元之间。

ChatGPT能取得如此成就,离不开大量GPU的推理和训练,如果高性能GPU的数量不够或者性能不足,那么AI推理和模型训练的准确度就会大打折扣,微软的Azure为ChatGPT构建了超过1万枚英伟达A100 GPU芯片的AI计算集群。

据美国市场研究机构TrendForce的报告显示,处理1800亿个参数的GPT-3.5大模型,需要的GPU芯片数量高达2万枚。未来GPT大模型商业化所需的GPU 芯片数量甚至超过3万枚。所以,英伟达与未来AI技术的爆发有着密不可分的关系。

回顾过去,其实早在十多年前,英伟达就触发了深度学习大爆炸。2012年,Alex koshevsky、Elias suskaver和Jeff Hinton的研究团队,在英伟达Geforce GTX 580上使用1400万张图片训练了AlexNet计算机视觉模型,可处理262千万亿次浮点运算。经过训练的模型以压倒性优势赢得了ImageNET挑战赛。

十年之后的2022年,OpenAI凭借10000片英伟达GPU芯片来训练GPT-3大语言模型,需要进行323 x 10^21次浮点运算,比AlexNet多出一百万倍,进而触发了生成式AI的爆发点。

黄仁勋认为生成式 AI 将重塑几乎所有行业——由于ChatGPT模型背后算力成本超过400万美元,在这场大模型军备竞赛中,手握A100和H100的“军火商”英伟达,或已成最大赢家。据花旗预估,ChatGPT或将促使英伟达一年内销售额增长100亿美元。

从全球GPU的市场占比情况来看,无论AI技术如何发展,哪些科技企业/大佬进入生成式AI领域,英伟达的地位都是铁打的,其已经不只是一家芯片公司,也是AI时代基础设施的提供方。


流水的ChatGPT

与英伟达一家就占据全球GPU出货量的80%不同,随着微软ChatGPT的发布,吸引了谷歌、百度、腾讯、华为、阿里等科技公司的踊跃加入,也让一些科技大佬跃跃欲试,比如美团前高管王慧文、创新工场李开复、阿里技术大佬贾扬清,一个能在2个月时间内就达到100万用户的应用让市场看到了AI的商业价值,谁都不想错过。


对于进入类ChatGPT领域,每个参与者都有自己的定位、看法。

(一)谷歌Bard的定位

Bard没有与搜索引擎结合,而是一个独立的网页,带有一个问题框,可以认为是一个对谷歌搜索的补充。谷歌高管称,Bard是一个创造性的工具,可以草拟电子邮件和诗歌,并就如何让孩子参与飞钓等新流行的爱好提供指导。高管们表示,该公司渴望了解人们如何使用这项技术,并将根据使用情况和反馈进一步完善聊天机器人。不过,与搜索引擎不同的是,Bard的设计初衷并不是提供可靠的信息来源。

从最新的公测版本来看,前期的翻车让Bard更为谨慎,当用户提出一个问题之后,Bard能直接帮用户生成3个不同版本的答案,用户可以根据自己的喜好进行挑选,也可以理解为将AI答案可能出现的错误问题踢给用户。


(二)百度文心一言的定位

李彦宏表示,百度文心一言定位于人工智能基座型的赋能平台,将助力金融、能源、媒体、政务等千行百业的智能化变革。从发布会现场来看,文心一言某种程度上具有了对人类意图的理解能力,回答的准确性、逻辑性、流畅性都逐渐接近人类水平。但整体来看文心一言的发布有些许仓促,还有很大提升空间。

“一直担心人生被惯性主导,怠于熟悉的环境而错过了不同的精彩”的美团前高管王慧文要打造中国OpenAl。

李开复认为AI 2.0是绝对不能错过的一次革命,AI 2.0不仅仅是个高能聊天工具,也不仅仅是图文创作的AIGC生成,Co-pilot和如今看到的应用都还只是AI 2.0能力的开端。

阿里技术大佬贾扬清在入职4年后选择离职创业,投身于人工智能架构领域,与贾扬清一同携手创业的,还有他多年携手并肩的战友,曾共同参与ONNX、PyTorch和Caffe2项目。

任何新技术、新应用的出现都会吸引诸多公司、业内人士的目光,ChatGPT正在引爆AI创业的一波新热潮。但是如果仅仅只是被热潮所吸引,跟风投机,没有全力以赴的坚持和投入,大多数的创业都是竹篮打水,毕竟Open AI也是经过几年的发展,投入了大量的资金才推出了ChatGPT。

从企业的角度来看,虽然国内大模型技术的发展呈现百花齐放的态势,但不得不承认我们与国外在基层技术上的差距,这一点通过文心一言与ChatGPT的对比就可以看出,比如对问题的理解程度、答案的准确度等。

此外,很多国产大语言模型都是用开源软件,对于只能采用GPT2.0模型的国内公司而言,与GPT4.0的差距变的更大,想要在短期内达到同样的水平还有较大难度,语料库的建立,人工标注,算法的训练都需要时间。所以,国产的类ChatGPT产品能达到什么效果还很难说,如果达不到预期的商业效果就有可能成为拖累企业发展的陷阱。

从创业者的角度来看,投身AI大模型,首先就意味着要消耗大量的资金,如上文提到的GPT-3训练一次的成本约为140万美元,此外,以ChatGPT在1月的独立访客平均数1300万计算,其对应芯片需求为3万多片英伟达A100 GPU,初始投入成本约为8亿美元,每日电费在5万美元左右。

对资本而言,他们要从不确定性中寻找最大的确定性,所以有着深厚技术功底的团队更受青睐。其次,从技术层面来看,很多创业项目还停留在理论层面、热情层面,想要真正实现并达到商业效果还有不小的阻力,从0到1需要的不仅仅是魄力与热情,还需要扎实的技术基础。此外,创业者还需要面对来自微软、谷歌、百度、阿里、腾讯、华为等科技公司的巨大压力,所以选择ChatGPT赛道对创业公司而言非常不友好。

生成式AI赛道看似很热,但是表面之下或许是岩浆在翻涌,投身其中需要大量资金的加持和深厚的技术壁垒,能跟上处于加速状态的ChatGPT又有几个,让我们拭目以待。


小结

如果说AI是初版生产力,那么ChatGPT等生成式AI应用就是进阶版的生产力,但这些都是基于AI芯片等基础设施而产生的。假设生成式AI领域会出现微软、谷歌、百度等一超多强的流水式竞争格局,那么英伟达就是铁打的AI大赢家。


3月24日(周五)19:00

财经十一人视频号

标签:

上一篇
下一篇

最新文章