Py学习  »  机器学习算法

RTX 4090将机器学习速度提高3倍?黄仁勋:摩尔定律已死!

CVer • 1 年前 • 248 次点击  

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—> CV 微信技术交流群



转载自:新智元 | 编辑:武穆

【导读】英伟达正式发布RTX40系列显卡后,知乎上,「如何评价RTX40系列显卡」成为热议话题。从讨论内容看,网友对细节的讨论,还是很专业的。

老黄终于在今年的GTC(GPU技术大会)2022上,公布了RTX 40系列GPU的配置。

很快,在知乎上,RTX40系显卡就成了热议话题。


性能高了,功耗也大了


从网友的讨论方向看,对于RTX40系显卡,大家关心的主要就两点:性能和价格。

对于RTX40系显卡的性能,大家基本买账。

下面这张RTX40 系显卡性能图,一直为网友津津乐道。


一位网友认为,RTX40 系列显卡,从架构和工艺上说,这是NVIDIA自Pascal,也就是10代以来各方面都提升最大的一代。


其他网友对RTX40系列性能的看法,也差不多。

比如,知乎上的一个名为「MebiuW」的科技博主认为,英伟达在这一代消费级显卡Ada Lovelace上用上了台积电的N4工艺,终于不像之前Ampere一样用着落后当时一代的工艺了。

不过,他觉得Ada Lovelace的首发的卡,虽然在理论性能上都是超过3090。但也就4090的提升比较大一些,4080系列无论对比3080还是对比3080Ti,提升都不足2倍。

从核心规格上,12GB的4080更像是3070的替代版本(3070 20T),16GB版本的4080更像是3070Ti的替代版本(22T)。

还有人干脆只放一张图,来表达他对40系显卡性能的看法:


总而言之,尽管在一些细节上,大家的看法有差别,但在一件事上,大家达成了共识:旗舰RTX 4090性价比最高。


也许是RTX 4090的性能实在让人印象深刻,外网Reddit甚至有人在讨论,RTX 4090的cuda内核增加了50%,时钟速度提高了50%,如果再考虑到RTX 4090其他方面的优化,有了RTX 4090的加持,能不能将机器学习速度提高2-3倍?


从下面留言看,外国网友显然没这么乐观。

一位叫「Michael_Aut」的网友评论道:「考虑到Roofline 模型(屋顶线模型),很多事情都受到内存吞吐量的约束,RTX 4090对机器学习没有那么大的推动作用。」

他特意用参数来做进一步说明。


最后,这位网友总结道:「是的,我不会期望新芯片能在任务中有更好的表现。实际上,从3080切换到12GB 4080时,性能说不定会出现一些退步。」

另一个取名「pommedeterresautee」的网友说:

「GPU编程中的大多数低效率都与从全局内存(DRAM)访问数据有关。对于e2e性能而言,速度快2倍的HBM3肯定与更快的计算速度一样重要。更大的l2缓存也会有所帮助。

只有像matmul和conv这样的张量收缩运算才能从DL中更快的计算中受益。

此外,如果使用新的fp8格式IRL,它可能会产生差异。Int8 quant很难使用,很少有人能够在prod等中部署它。」

当然,RTX40系列显卡的性能虽然总体上差强人意,但并非各方面都让人满意。

比如,RTX40系列显卡的功耗,就遭到了很多人的吐槽。

RTX 4090、RTX 4080(16G)、RTX 4080(12G)这三款显卡的功耗,分别为450W、320W和285W,系统电源功率要求分别为850W、750W和 700W。

考虑到RTX30系列显卡的功耗已经不低了,升级后的RTX40系列显卡功耗还在增加,难怪一位叫「老冯数码」的知乎网友戏称英伟达是「国家电网合作伙伴」。

不过,在另一大槽点面前,功耗什么的都是浮云。

在价格面前,一切都显得不重要


同性能相比,知乎上,大家对显卡价格的讨论要多得多。

啊,不,更准确地说,是吐槽要多得多。

一个网友说,对于英伟达的RTX 40系显卡,他只想说三点,定价离谱,定价离谱,定价离谱。


而一个叫「星话大白」的知乎网友,则站在游戏玩家的角度说,黄老板把原本的4070改成4080,价格提升84%,哪个玩家还买?至于30系新卡,他是不打算帮英伟达清库存了。

还有人专门做了一张表,让这次涨价变得更加醒目:


除了吐槽,有人对40系显卡的价格,还没有完全悲观。

一个叫「誓约胜利之剑」的网友说,「30系当初虽然定的低,但是发售后到今年以前,也从没按照原价卖过,定价只是官方觉得值这个价,具体卖多少取决于用户觉得值多少,至少30系目前矿卡存量如此巨大的情况,40系破发速度应该不会慢」。

看完网友们的吐槽,再看看老黄是怎么说的。

在公布RTX 40系列显卡后,针对显卡太贵,英伟达CEO黄仁勋回应道:

「一块12英寸的(硅)晶圆现在比昨天贵得多,而且不是贵了一点点,而是贵了很多。摩尔定律已死。根据摩尔定律,在相同的成本下,性能翻倍或者在相同的性能下,成本减半,这种能力已经不复存在。它完全结束了,因此芯片的成本会随着时间的推移而下降的想法,已是过去的事了。」


也许,老黄涨价真是迫不得已吧。

参考资料:

https://www.zhihu.com/question/554597854
https://www.reddit.com/r/MachineLearning/comments/xjt129/d_can_we_expect_rtx_4090_to_have_23x_machine/

点击进入—> CV 微信技术交流群


CVPR 2022论文和代码下载


后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF


目标检测和Transformer 交流群成立


扫描下方二维码,或者添加微信:CVer222,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。


一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群


▲扫码或加微信号: CVer222,进交流群


CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!


扫码进群

▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/147813
 
248 次点击