比ChatGPT强大100万倍!
这是老黄黄仁勋给出的AI模型未来十年预测。
在最新财报会议上,几乎没有人再谈论游戏图形,一切都与人工智能相关。
不少网友认为100万倍的说辞是英伟达面向董事会和股东的“夸大其词”,但实际上也不道理。
而在另一边有报告指出,价值约10000美元的A100已成为AI行业最关键工具之一。据说ChatGPT是在大约10000个英伟达GPU上运行。
因此有媒体直言:没有英伟达,就没有ChatGPT。
事实上英伟达开年以来市值已上涨2100亿美元,差不多两个英特尔。
英伟达预测AI爆发式未来
在预测未来AI模型发展时,老黄还以摩尔定律作类比:
摩尔定律在最好的发展阶段,可以在10年内实现100倍增长。
通过提出新处理器、新系统、新框架和算法等,并与数据科学家、AI研究人员合作开发新模型,在整个跨度中,我们已经使大语言模型的处理速度提高了100万倍。
老黄还补充道,过去十年我们做到了,未来十年将再次做到这一点,我希望在世界各地看到AI工厂。
毫无疑问的是,AI成为整场财报电话会议的关键词。有贴心的网友做了一个粗略的估计:五分钟说了23次AI。
另一边,游戏就显得暗淡不少,除了发布财报数据就没有更多提及。
第四季度游戏图形收入为18.3亿美元,仅占包含AI在内的数据中心收入(36.2亿美元)的一半左右,同比暴跌46%。
不过这并不影响英伟达股价上涨,涨幅一度达14%。事实上2023年开年以来,英伟达市值增长已超2100亿美元。(相当于两个英特尔)
老黄表示,AI技术已经到达一个拐点。各个方面都显示这是一个新的计算时代。
可以说,英伟达是ChatGPT全球效应背后的最大赢家之一。ChatGPT被曝是在大约10000个英伟达GPU上运行。
也难怪有媒体直言:没有英伟达,就没有ChatGPT。
而且种种迹象表明,英伟达可享ChatGPT的红利还在继续,尤其是在ChatGPT逐步应用落地之时。
英伟达除了单卡A100,还提供了由8个A100组成的系统DGX,来帮助企业协同工作,应对高峰期或者改进模型。
就以搜索引擎为例。有机构预计,ChatGPT版Bing要实现一秒内响应需要8个GPU。
按这样的速度,微软将需要超20000台8-GPU 服务器才能完成部署,背后将涉及40亿美元的支出。
谷歌母公司董事长也在近日表示,ChatGPT搜索成本是传统搜索的10倍。
已占95%市场份额
事实上除了ChatGPT,以A100为代表的GPU已成为人工智能专业人士的“主力”。
就在Stability AI、OpenAI等市值数十亿美元科技公司争相发布爆款应用;微软、谷歌着急将ChatGPT相关技术集成到搜索引擎。
推动这些时代级进程的,都离不开这样一块价值约10000美元的芯片。
据CNBC消息援引New Street Research数据,英伟达已占用于ML的GPU市场95%份额。
而一些初创企业甚至以他们所获A100数量视作进步的标志。
典型如推出Stable Diffusion的独角兽公司Stability AI,其CEO曾回望过去告诫现在的企业:一年前我们拥有32台A100。
孩子们, 做个大梦吧,多堆些GPU。
据相关报告估计,目前Stability AI可使用超5400个A100,仅训练模型就花费了60万美元。
产业端,英伟达已与10000家AI企业合作。学界有报告显示,截至去年12月有超21000篇开源AI论文表示,使用了英伟达芯片。其中A100已成为史上第三大使用次数最多的芯片。
鉴于英伟达这样的影响力,可能不奇怪“100万倍”这样预测了?
对于老黄这个预测,你怎么看?