“这是我听过的黄仁勋最好的采访!”
英伟达CEO黄仁勋的一场炉边说话再次引起热议:
英伟达从来没有一天谈论过商场份额。咱们所评论的只是:怎么发明下一个东西?怎么将曩昔需求一年才干完结的飞轮缩短到一个月?
面临Azure和AWS等正在自主构建ASIC芯片的云核算大客户,老黄打了个比方:
公司遭到鱼塘巨细的约束,仅有的方针是用想象力扩展鱼塘。(指发明新商场)
当然了,除了提及英伟达,老黄还评论了AGI的智能扩展、机器学习的加快、推理与练习的重要性……
尽管时长感人(近1个半小时),但一大波网友现已看完并交起了作业(开端卷了是吧!)
网友:学起来!学起来!
黄仁勋:未来推理的添加将远大于练习
鉴于视频较长,量子位先直接给咱们划要点了,老黄的首要观念包含(省流版):
“口袋里的AI助理”将很快以某种方法呈现,尽管开端或许会不完美;英伟达的竞赛优势在于树立了从GPU、CPU、网络到软件和库的全栈渠道;扩展人工智能的要点已从练习前转移到练习后和推理;推理(inference)时核算将作为一个全新的智能扩展向量;未来推理的添加将远大于练习的添加;闭源和开源将共存,开源模型或许用于创立特定范畴的使用程序;……
(以下为要点部分收拾)
Q:关于个人AI助理的开展前景,您以为咱们何时能在口袋里装上一个一窍不通的AI助理?
A:很快就会以某种方法呈现。这个助理一开端或许不行完美,但会跟着时刻推移不断改进,这是技能开展的必然规律。
Q:现在AI范畴的开展改动速度是否是您见过最快的?
A:是的,这是由于咱们从头发明晰核算。在曩昔10年里,咱们将核算的边沿本钱下降了10万倍,而依照摩尔定律或许只能下降100倍。
咱们经过以下方法完结了这一点:
引进加快核算,将原本在CPU上功率不高的作业转移到GPU上发明新的数值精度开发新架构(如张量中心)选用高速内存(HBM)经过MVLink和InfiniBand完结体系扩展这种快速开展使咱们从人工编程转向了机器学习,整个技能栈都在快速立异和前进。
Q:模型规划扩展方面有哪些改动?
A:曾经咱们首要重视预练习模型的扩展(要点在模型巨细和数据规划),这使得所需核算才干每年添加4倍。
现在咱们看到后练习(post-training)和推理阶段也在扩展。人类的思想过程不或许是一次性完结的,而是需求快思想、慢思想、推理、反思、迭代和模仿等多个环节。
并且,曾经人们以为预练习难,推理简略,但现在都很难了。
Q:与3-4年前比较,您以为NVIDIA今日的优势是更大仍是更小?
A:实际上更大了。曩昔人们以为芯片规划便是寻求更多的FLOPS和性能指标,这种主意现已过期。
现在的关键在于整个机器学习体系的数据流水线(flywheel),由于机器学习不只是是软件编程,而是触及整个数据处理流程。从一开端的数据管理就需求AI参加。数据的搜集、收拾、练习前的预备等每个环节都很杂乱,需求许多处理作业。
Q:与Intel等公司比较,Nvidia在芯片制作和规划方面有什么不同的战略?
A:Intel的优势在于制作和规划更快的x86串行处理芯片,而Nvidia采纳不同战略:
在并行处理中,不需求每个晶体管都很超卓咱们更倾向于运用更多但较慢的晶体管,而不是更少但更快的晶体管甘愿有10倍数量、速度慢20%的晶体管,也不要数量少10倍、速度快20%的晶体管Q:关于定制ASIC(如Meta的推理加快器、亚马逊的Trainium、Google的TPU)以及供给缺少的状况,这些是否会改动与NVIDIA的协作动态?
A:这些都是在做不同的作业。NVIDIA致力于为这个新的机器学习、生成式AI和智能Agent国际构建核算渠道。
在曩昔60年里,咱们从头发明晰整个核算技能栈,从编程方法到处理器架构,从软件使用到人工智能,每个层面都发生了改造。咱们的方针是创立一个到处可用的核算渠道。
Q:NVIDIA作为一家公司的中心意图是什么?
A:构建一个无处不在的架构渠道。咱们不是在抢夺商场份额,而是在发明商场。咱们专心于立异和处理下一个问题,让技能前进的速度更快。
Q:NVIDIA对待竞赛对手和协作伙伴的情绪是什么?
A:咱们对竞赛很清醒,但这不会改动咱们的任务。咱们向AWS、Azure等协作伙伴提早共享路线图,坚持通明,即便他们在开发自己的芯片。关于开发者和AI草创公司,咱们供给CUDA作为一致进口。
Q:对OpenAI的观点怎么?怎么看待它的兴起?
A:OpenAI是咱们这个年代最重要的公司之一。尽管AGI的详细界说和时刻点并不是最重要的,但AI才干的开展路线图将会十分壮丽。从生物学家到气候研究者,从游戏规划师到制作工程师,AI现已在改造各个范畴的作业方法。
我十分赏识OpenAI推动这一范畴的速度和决计,并为可以赞助下一代模型感到高兴。
Q:您以为模型层是否正在走向商品化,以及这对模型公司的影响是什么?
A:模型层正在商品化,Llama的呈现使得构建模型变得愈加廉价。这将导致模型公司的整合,只要那些具有经济引擎并可以继续出资的公司才干生计。
Q:您怎么看待AI模型的未来,以及模型与人工智能之间的差异?
A:模型是人工智能必不可少的组成部分,但人工智能是一种才干,需求使用于不同的范畴。咱们将看到模型层的开展,但更重要的是人工智能怎么使用于各种不同的使用场景。
Q:您怎么看待X公司,以及他们树立大型超级集群的成果?
A:他们在19天内(一般需求3年)制作了一个具有100,000个GPU的超级核算机集群。这展现了咱们的渠道的力气,以及咱们可以将整个生态体系集成在一起的才干。
Q:是否以为分布式核算和推理扩展将会开展到更大规划?
A:是的,我对此十分热心和达观。推理时核算作为一个全新的智能扩展向量,与只是构建更大的模型天壤之别。
Q:在人工智能中,是否许多作业只能在运行时完结?
A:是的,许多智能作业不能先验地完结,许多作业需求在运行时完结。
Q:您怎么看待人工智能的安全性?
A:咱们有必要构建安全的人工智能,并为此需求与政府机构协作。咱们现已在树立许多体系来保证人工智能的安全性,并需求保证人工智能对人类是有利的。
Q:你们公司超越40%的收入来自推理,推理的重要性是否由于推理链而大大添加?
A:没错,推理链让推理的才干提高了十亿倍,这是咱们正在阅历的工业革命。未来推理的添加将远大于练习的添加。
Q:你们怎么看待开源和闭源人工智能模型的未来?
A:开源和闭源模型都将存在,它们关于不同的职业和使用都是必要的。开源模型有助于激活多个职业,而闭源模型则是经济模型立异的引擎。
关于上述这些,你怎么看?