自十年前AlexNet等模型在计算机视觉领域大放异彩,深度学习算法逐渐流行起来。近年来,BERT等大模型深受大公司喜爱,自2018年至今,最顶尖的大模型的规模越来越大,如GPT-3有1750亿参数,2021年的Switch Transformer达到了1.6万亿参数,智源“悟道”模型更是达到了1.75万亿参数。由此,OpenAI做出了一个预测:顶尖的AI模型每3.5个月更新换代一次。而与之对应的,内存的更新换代速度却在35个月左右。也就是说,AI模型的翻倍速度十倍快于内存的翻倍速度,这就导致了AI应用与硬件的不匹配。 本文整理自青源 LIVE 第 33 期,视频回放链接:https://hub.baai.ac.cn/live/?room_id=209主讲丨尤洋整理丨牛梦琳审校丨李梦佳
主讲人:尤洋是新加坡国立大学计算机系的校长青年教授 (Presidential Young Professor),加州大学伯克利分校博士。尤洋的研究专长包括高性能计算,并行算法,以及机器学习。他曾以第一作者身份获得了国际并行与分布式处理大会(IPDPS)的Best Paper Award(0.8%获奖率)和国际并行处理大会(ICPP)的Best Paper Award(0.3%获奖率)。尤洋曾获清华大学优秀毕业生,北京市优秀毕业生,国家奖学金,以及当时清华大学计算机系的西贝尔奖学金。他还在2017年获得美国计算机协会(ACM)官网上颁给优秀在读博士生的ACM-IEEE CS George Michael Memorial HPC Fellowship。他也获得了颁发给伯克利优秀毕业生的Lotfi A. Zadeh Prize。他还被伯克利提名为ACM Doctoral Dissertation Award候选人(81名博士毕业生中选2人)。他在2021年被选入福布斯30岁以下精英榜 (亚洲)并获得IEEE-CS超算杰出新人奖。 更多信息请查看研究小组主页(https://ai.comp.nus.edu.sg/) 。