
NVIDIA GTC将于2023年3月20日-23日在线上举行,包括超过650场演讲、专家座谈会以及特别活动,涵盖加速计算和开发工具、计算机视觉、对话式 AI/NLP、数据科学、深度学习、数字孪生和世界仿真、图形和XR、高性能计算、推荐系统/个性化等多个主题。全球范围的技术专家、开发者、研究人员、创作者、IT决策者和企业领袖将汇聚于此,了解AI、加速计算及其他领域的突破性进展,以及如何利用这些技术力量推动新一轮的创新。NVIDIA创始人兼首席执行官黄仁勋将在主题演讲中分享NVIDIA加速计算平台如何推动AI、元宇宙、云技术和可持续计算的下一波浪潮。目前已确认参与本届GTC的重磅嘉宾包括:OpenAI的联合创始人兼首席科学家Ilya Stutskever、DeepMind的创始人兼CEO Demis Hassabis等。此外,以百度、阿里巴巴、腾讯、字节跳动、快手、美团、网易为代表的中国互联网科技企业的加入,更为此次大会的嘉宾阵容又添一笔。
近日,国际数据调研机构IDC发布《中国深度学习框架和平台市场份额,2022H2》报告。报告显示,Meta PyTorch、百度飞桨PaddlePaddle、谷歌TensorFlow占据中国深度学习开源框架80%以上的市场份额。百度飞桨PaddlePaddle开源框架市场份额超越了谷歌TensorFlow。2021-2022年,百度飞桨持续位居中国深度学习平台市场综合份额第一。据悉,截至2022年11月底,百度飞桨平台已凝聚535万开发者,创建了67万个AI模型,服务于20万家企事业单位,在工业、能源、交通、农业等领域大放异彩。
本次GTC大会上,来自百度的四位专家将带来精彩的内容分享,涵盖飞桨深度学习框架以及端到端开发套件与工具,还有业界首个同时支持复杂算法+超大图+超大离散模型的大规模图学习训练技术PGLBox。
以下为议题简介。
飞桨深度学习平台高效支持大模型生产及应用
[S52366]
源于百度业务对人工智能技术的广泛应用,飞桨深度学习平台结合应用持续创新,研发了业界领先的大规模分布式训练技术。飞桨先后发布了4D混合并行训练、端到端自适应分布式训练、超大规模图训练引擎等核心技术,并基于这些技术支持文心大模型的训练和部署。目前,文心大模型已经覆盖基础大模型、任务大模型、行业大模型的三级体系,飞桨+文心大模型赋能千行百业的智能化升级。
PGLBox:百度基于 GPU 的超大规模图模型训练框架
[SE51302]
焦学武,百度主任架构师、百度 MEG 商业模型中台技术负责人
PGLBox是百度研发的基于GPU的大规模图模型训练框架,支持数百亿节点和边的图模型全GPU训练,已在百度广泛部署。与传统的基于CPU的分布式解决方案相比,PGLBox可以在相同的成本下获得28倍的训练加速。相比业界主流的分布式CPU解决方案,PGLBox具有超高性能、超大规模、算法丰富、灵活易用、落地广泛等优势。
PGLBox由以下主要组件组成:
1.超高性能的分布式GPU图学习训练框架,图存储、深度行走、采样和训练全流程GPU化,通过使用GPU并行技术大大加快了图模型的样本生成和训练。
2.业界首个多级存储图引擎,对图/属性/模型差异化存储构建多级存储体系,能够使用单台GPU服务器训练数百亿节点和边的图模型。
3.吞吐最大化的流水线架构,采样、属性拉取、参数拉取和模型训练的流水线架构,高效进行端到端的图模型训练。
4.预置丰富的图表示学习算法,支持跨场景异构图建模和复杂图属性建模,首次实现ERNIE-Sage+大规模图结构信息+大规模离散特征的统一建模。
面向大模型的端到端套件PaddleFleetX
[S51309]
FastDeploy是一款全场景、极致高效、易用灵活的AI推理部署工具,支持云边端部署。统一飞桨及生态的多端部署API,目前支持Paddle Inference、Paddle Lite、TensorRT、ONNX Runtime、Poros等推理引擎,一行命令可灵活切换多个推理引擎后端;同时支持Triton Inference Server,一款工具可实现快速的云边端部署。
通过集成CV-CUDA、FastTokenier、FlyCV等AI加速库,以及PaddleSlim自动压缩工具,实现AI模型端到端的性能优化。FastDeploy精心完成了部署API设计,确保不同语言的开发者能够享受到统一的API体验,不同语言只需要3行核心代码,就可以实现预置模型的高性能推理;预置的160+SOTA产业模型的端到端示例 ,快速完成AI的产业落地。
全场景高性能AI部署工具FastDeploy
[S52367]
FastDeploy是一款全场景、极致高效、易用灵活的AI推理部署工具,支持云边端部署。统一飞桨及生态的多端部署API,目前支持Paddle Inference、Paddle Lite、TensorRT、ONNX Runtime、Poros等推理引擎,一行命令可灵活切换多个推理引擎后端;同时支持Triton Inference Server,一款工具可实现快速的云边端部署。
通过集成CV-CUDA、FastTokenier、FlyCV等AI加速库,以及PaddleSlim自动压缩工具,实现AI模型端到端的性能优化。FastDeploy精心完成了部署API设计,确保不同语言的开发者能够享受到统一的API体验,不同语言只需要3行核心代码,就可以实现预置模型的高性能推理;预置的160+SOTA产业模型的端到端示例 ,快速完成AI的产业落地。
预约感兴趣的演讲内容
想要预约以上精彩内容?扫描下方图片二维码或点击“阅读原文”,即可搜索相关会议代码找到对应演讲内容,通过点击“Add to Schedule”或点击“星星”,将该演讲内容添加至您的日程,大会开始后登录即可在线观看。例如:搜索演讲代码 [SE51302],点击 “Add to Schedule”,即可将该演讲添加至您的日程。例如:搜索演讲代码 [S52366],发现没有 “Add to Schedule” 按钮,说明该演讲为点播形式,从3月22日开始即可在线观看。点击右上方的星星,将该演讲添加至您的日程。扫描下方海报二维码,即可免费注册GTC 23,切莫错过这场AI和元宇宙时代的技术大会!关注【飞桨PaddlePaddle】公众号
获取更多技术内容~