社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

失效的“摩尔定律”和暴涨的算力需求:ChatGPT热潮下的AI芯片变局

DeepTech深科技 • 11 月前 • 135 次点击  

距离2022年11月30日ChatGPT的推出已有将近五个月,市场对AIGC应用的热情依旧高涨,同样高涨的还有AI芯片巨头英伟达的股价和市值。数据显示,今年以来,英伟达的股价、市值翻了近一倍。截至2023年4月20日,英伟达股价从年初的143.15美元上涨到271.04美元,年内涨幅为89.33%,市值达到了6694.69亿美元,涨幅为86.01%,远远甩开其竞争对手英特尔(市值1287.19亿美元)和AMD(市值1450.24亿美元)。

这样惊艳的数据得益于英伟达掌握了人工智能产业的命门——“算力”,ChatGPT大模型背后,是英伟达提供的上万枚A100芯片。如今,OpenAI之外,微软、谷歌、百度、阿里、华为等海内外科技公司纷纷发力AI大模型,带动了对高性能AI芯片的需求。作为目前为AI大模型提供算力的“主力军”,英伟达也成了最大的受益者,其产品A100芯片价格也水涨船高,最新版旗舰AI芯片H100近日在网上的售价甚至被炒到4万多美金。

毫无疑问,算力已经成为数字时代的核心生产力。海量的数据和越来越多的算法模型的诞生,对算力提出了更高的要求,这也为AI芯片产业提供了前所未有的机遇。

此前,OpenAI发布的一份报告指出,从2012年开始,AI训练所用的计算量呈现指数增长,平均每3.43个月便会翻倍。而戈登·摩尔于1956年提出的摩尔定律在统治半导体产业大半个世纪后,也走到了失效的节点。一面是日益增长的算力需求,一面是增速变缓的计算能力,芯片厂商们将如何解决这一困局,为人类社会的智能化演进保驾护航?在AI芯片市场,英伟达又是否能始终保持其优势?

图源:Pixabay

流水的科技热点,铁打的英伟达

事实上,这已经不是英伟达第一次因为科技热点而受益。在此之前,包括区块链、自动驾驶、

元宇宙等多场席卷全球的科技热潮里,英伟达总是凭借其AI算力优势出尽风头,成为了很多行业风口背后的算力提供商。

其中,在2021年底,也就是元宇宙全球火热的时候,英伟达高调进军元宇宙。在GPU技术会议(GTC 2021)上首席执行官黄仁勋表示,要将英伟达产品路线升级为GPU+CPU+DPU的三芯战略,同时发布了用于3D工作流程的虚拟世界模拟和协作平台NVIDIA Omniverse平台,该平台被定位为“工程师的元宇宙”。

在自动驾驶领域,英伟达则通过持续投资研发,推出了一系列具有竞争力的产品,例如DRIVE PX平台、DRIVE Xavier芯片以及DRIVE AGX Orin平台等。从英伟达的财务报告来看,在自动驾驶领域的投入确实获得不错的回报。2022年第四季度英伟达的汽车业务收入创下有史以来最高的2.94 亿美元,同比增长 135%。

如今,以ChatGPT为代表的AIGC的热潮中,英伟达凭借旗下高性能的AI芯片,成了这场AI大模型战局中的关键参与者。尽管其产品价格不菲,但依然供不应求。可以看到,在过去的这几次全球科技热潮中,英伟达始终都是那个“受益者”。今年3月下旬,英伟达在美国加州总部举办的年度技术峰会上,黄仁勋发布了专门用于大语言模型部署的GPU推理平台——H100 NVL, 其或将在推理阶段实现比现有最先进的A100快10倍的速度。而这一产品也自然成了想要进军AI大模型领域的企业最想要得到的东西。

那么,为什么是英伟达?要回答这个问题,我们必需先弄明白,算力之于AI大模型的意义是什么?

在AI的三大核心要素——数据、算法和算力中,算力充当的是基础设施的角色,就好比是让家用电器得以运转起来的电力。当我们要同时使用多个电器或是要让电器同时运行多个功能时,就需要提高电力负荷。同理,在AI模型的训练里,要让模型更快迭代,则需要同等条件下更大的算力以支撑更大数据量更高频的运算。

而算力的提供者就是芯片,AI芯片是专门用于处理人工智能相关计算任务的芯片,其架构针对人工智能算法和应用进行专门优化,具有高效处理大量结构化和非结构化数据的特征,可高效支持视觉、语音、自然语言处理等智能处理任务。AI芯片的主要类型包括GPU、FPGA和ASIC,目前,包括ChatGPT在内的AI大模型训练用到的芯片主要就是GPU。

公开数据显示,ChatGPT背后的大模型GPT-3具有1750亿个参数,45TB的训练数据,用到了英伟达提供的上万枚A100芯片。而在3月15日发布的GPT-4,虽然目前还没有公布参数规模,但业界推测其参数量是GPT-3的10倍以上,这就意味着,相应的算力需求也呈指数级上升,所需要的芯片数量也将超过此前。

图源:Pixabay

摩尔定律失效,算力何去何从?

随着越来越多的企业布局AI大模型,用于训练AI模型的GPU的需求激增。截至目前,除了海外科技企业OpenAI、微软、谷歌和亚马逊等,国内企业在AI大模型和相应产品的投入方面也在加大力度。

其中,百度在3月16日推出的对标 ChatGPT的大语言模型、生成式AI产品文心一言;4月8日,华为盘古大模型发布;4月10日,商汤“日日新SenseNova”大模型体系正式问世;4月11日,阿里“通义千问”大模型发布,具备了文案创作、对话聊天、知识问答、逻辑推理、代码编写等服务能力,并通过API插件实现AI能力的泛化。

可以预见,行业里将出现更多的AI大语言模型,尽管各家推进程度不一,但算力无疑是困扰他们的共同难题。

与此同时,随着生产、生活的在线化、数字化和智能化推进,AI将逐步渗透到全行业与全场景,进入一个类似工业化大生产的阶段,暴涨的数据量和更大更多更复杂的算法模型,也对算力提出了更高的要求。如果算力无法随着需求提升,将成为AI产业发展的最大制约因素。

回顾AI发展历史,计算能力的大小和成本,决定了AI产业的发展速度和形态。每一次AI产业的突破进展,背后都离不开强大的算力支撑。比如大家所熟悉的2016年3月AlphaGo战胜韩国棋手李世石这场震撼全球的棋局背后,就是数千台服务器、上千块CPU、高性能显卡的“通力合作”。

在1946年,世界上第一台计算机ENIAC诞生了,彼时,其计算能力比一台iPhone手机慢了几十亿倍。之后,计算机的算力每隔几年就翻一倍,英特尔创始人戈登·摩尔在1965年提出的“摩尔定律”——集成电路上可容纳的元器件数量,每18-24个月就会增加一倍,性能也会提升一倍——统治了半导体产业半个多世纪,这期间,计算机的算力呈现指数级增长,人类社会也在计算机应用的推动下走过互联网时代、移动互联网时代再来到如今的智能互联网时代。

大语言模型遍地开花的当下,对芯片AI的性能、能效比提出了更高要求。然而,人们发现,经过数十年的快速发展后,芯片工艺进一步更新的节奏在变缓,芯片性能的提升也在变小。在过去的十年中,关于摩尔定律失效的担忧不断,包括EE Times、麻省理工科技评论、CNET、SiliconANGLE等机构都认为摩尔定律之死将是必然。

然而,人们并不会任由着算力增长停滞不前,为此,学界、产业界也提出了很多相应的解决方案,基本的思路主要有两条,一是改变芯片制作工艺;二是改变芯片所采用的基础材料,目前比较常见的包括使用石墨烯材料制成的碳基芯片,还有硅光芯片,生物芯片等。这些也是新材料和工程制造领域的热门研究。

其中,在2008年3月,IBM沃森研究中心的科学家在世界上率先制成低噪声石墨烯晶体管;同年5月,美国乔治亚科技学院教授德希尔与美国麻省理工学院林肯实验室合作在单一芯片上生成的几百个石墨烯晶体管阵列。芯片用到的硅材料的加工极限一般被认为是10纳米线宽,受限于物理原理,学界认为小于10纳米的加工宽度不太可能产生出性能稳定、集成度更高的产品,而石墨烯晶体管的出现被认为将延长摩尔定律的寿命。这项基于新材料的技术创新,在该年入选《麻省理工科技评论》“全球十大突破性技术”。

近几年,硅光芯片热度越来越高,阿里巴巴达摩院也将其评定为2022年十大科技趋势之一。相比传统的硅电芯片,硅光芯片具有集成度高、成本下降潜力大、波导传输性能优异三大优势。早在2005年前后硅光技术就受到业界关注,《麻省理工科技评论》也在该年将硅光技术评为“全球十大突破性技术”。

图源:Pixabay

AI芯片走向何方?

当下,我们站在一个数据大爆炸、智能大爆炸的时代门口,AI芯片是一张最有价值的入场券,于企业如此,于国家如此,于个人更是如此。布局AI芯片赛道已成了各界共识。

在未来很长一段时间里,英伟达或许都将是AI芯片领域的关键角色。但他的对手也会越来越多,AI的繁荣正在推动巨头企业们成为自己的芯片提供商。4月18日有媒体报道称,微软正在自研AI芯片,这一内部代号为Athena的AI芯片自2019年开始投入研发,将为生成式AI背后的大型语言模型提供强大动力。据知情人士称,一些微软和OpenAI的员工已经开始测试并使用这些芯片。

为打破英伟达芯片的“算力垄断”,谷歌也正在加速寻求新的自研方案。谷歌研究人员近日在在一篇论文中公布了用于训练人工智能模型的超级计算机的技术细节,并宣称该系统比英伟达的超算系统更快且功耗更低。谷歌也暗示公司正在开发下一代的TPU,将与英伟达的H100竞争。

在政策引导下,近几年国内AI芯片产业持续快速发展。自“十三五”规划以来,人工智能芯片逐渐被写入国家发展规划纲要,之后出台《新一代人工智能产业发展三年行动计划2018-2020》重点扶持神经网络芯片,推动人工智能芯片在国内实现规模化应用。在2021年,“十四五”规划提出重点发展数字技术创新,提高人工智能芯片的研发和应用;同时,“十四五”国民健康规划提出大力推广人工智能芯片在医疗、卫生等公共领域的应用,切实保障民生。

随着我国各行业数字化转型加速,更多样化的人工智能产业应用数据和更复杂的深度学习算法需求产生,带动芯片市场持续增长。目前,国内科技企业包括寒武纪、地平线、昆仑芯科技、阿里平头哥等企业都已经推出了自己的AI芯片。

在GPT带动的这场AI热潮下,芯片厂商们在迎来更多机遇的同时,也将面对更为激烈的竞争。是否能让自己的芯片产品以更低的系统成本和更少的能耗来支撑起庞大的持续性的大算力需求,将决定厂商们能否在这场竞争中取胜。

目前,《科技之巅》正式上线发售,点击下图可以购买图书!让我们一起鉴过往,知未来!

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/154267
 
135 次点击