社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

从深度学习框架到开发工具,百度飞桨携最新成绩单将亮相GTC

飞桨PaddlePaddle • 2 年前 • 345 次点击  

NVIDIA GTC将于2023年3月20日-23日在线上举行,包括超过650场演讲、专家座谈会以及特别活动,涵盖加速计算和开发工具、计算机视觉、对话式 AI/NLP、数据科学、深度学习、数字孪生和世界仿真、图形和XR、高性能计算、推荐系统/个性化等多个主题。全球范围的技术专家、开发者、研究人员、创作者、IT决策者和企业领袖将汇聚于此,了解AI、加速计算及其他领域的突破性进展,以及如何利用这些技术力量推动新一轮的创新。

NVIDIA创始人兼首席执行官黄仁勋将在主题演讲中分享NVIDIA加速计算平台如何推动AI、元宇宙、云技术和可持续计算的下一波浪潮。目前已确认参与本届GTC的重磅嘉宾包括:OpenAI的联合创始人兼首席科学家Ilya Stutskever、DeepMind的创始人兼CEO Demis Hassabis等。此外,以百度、阿里巴巴、腾讯、字节跳动、快手、美团、网易为代表的中国互联网科技企业的加入,更为此次大会的嘉宾阵容又添一笔。

近日,国际数据调研机构IDC发布《中国深度学习框架和平台市场份额,2022H2》报告。报告显示,Meta PyTorch、百度飞桨PaddlePaddle、谷歌TensorFlow占据中国深度学习开源框架80%以上的市场份额。百度飞桨PaddlePaddle开源框架市场份额超越了谷歌TensorFlow。2021-2022年,百度飞桨持续位居中国深度学习平台市场综合份额第一。据悉,截至2022年11月底,百度飞桨平台已凝聚535万开发者,创建了67万个AI模型,服务于20万家企事业单位,在工业、能源、交通、农业等领域大放异彩。

本次GTC大会上,来自百度的四位专家将带来精彩的内容分享,涵盖飞桨深度学习框架以及端到端开发套件与工具,还有业界首个同时支持复杂算法+超大图+超大离散模型的大规模图学习训练技术PGLBox。

以下为议题简介。

GTC23 百度演讲推荐

Part.1 

演讲题目

飞桨深度学习平台高效支持大模型生产及应用

[S52366]

Part.2

演讲时间

3 月 22 日即可在线观看

Part.3

演讲人

马艳军,百度AI技术生态总经理

Part.4

演讲概要

源于百度业务对人工智能技术的广泛应用,飞桨深度学习平台结合应用持续创新,研发了业界领先的大规模分布式训练技术。飞桨先后发布了4D混合并行训练、端到端自适应分布式训练、超大规模图训练引擎等核心技术,并基于这些技术支持文心大模型的训练和部署。目前,文心大模型已经覆盖基础大模型、任务大模型、行业大模型的三级体系,飞桨+文心大模型赋能千行百业的智能化升级。

Part.1 

演讲题目

PGLBox:百度基于 GPU 的超大规模图模型训练框架

[SE51302]

Part.2

演讲时间

3 月 22 日 3:30 PM

Part.3

演讲人

焦学武,百度主任架构师、百度 MEG 商业模型中台技术负责人

Part.4

演讲概要

PGLBox是百度研发的基于GPU的大规模图模型训练框架,支持数百亿节点和边的图模型全GPU训练,已在百度广泛部署。与传统的基于CPU的分布式解决方案相比,PGLBox可以在相同的成本下获得28倍的训练加速。相比业界主流的分布式CPU解决方案,PGLBox具有超高性能、超大规模、算法丰富、灵活易用、落地广泛等优势。


PGLBox由以下主要组件组成:


1.超高性能的分布式GPU图学习训练框架,图存储、深度行走、采样和训练全流程GPU化,通过使用GPU并行技术大大加快了图模型的样本生成和训练。

2.业界首个多级存储图引擎,对图/属性/模型差异化存储构建多级存储体系,能够使用单台GPU服务器训练数百亿节点和边的图模型。

3.吞吐最大化的流水线架构,采样、属性拉取、参数拉取和模型训练的流水线架构,高效进行端到端的图模型训练。

4.预置丰富的图表示学习算法,支持跨场景异构图建模和复杂图属性建模,首次实现ERNIE-Sage+大规模图结构信息+大规模离散特征的统一建模。

Part.1 

演讲题目

面向大模型的端到端套件PaddleFleetX

[S51309]

Part.2

演讲时间

3 月 23 日 10:00 AM

Part.3

演讲人

敖玉龙,百度资深工程师

Part.4

演讲概要

FastDeploy是一款全场景、极致高效、易用灵活的AI推理部署工具,支持云边端部署。统一飞桨及生态的多端部署API,目前支持Paddle Inference、Paddle Lite、TensorRT、ONNX Runtime、Poros等推理引擎,一行命令可灵活切换多个推理引擎后端;同时支持Triton Inference Server,一款工具可实现快速的云边端部署。


通过集成CV-CUDA、FastTokenier、FlyCV等AI加速库,以及PaddleSlim自动压缩工具,实现AI模型端到端的性能优化。FastDeploy精心完成了部署API设计,确保不同语言的开发者能够享受到统一的API体验,不同语言只需要3行核心代码,就可以实现预置模型的高性能推理;预置的160+SOTA产业模型的端到端示例 ,快速完成AI的产业落地。


Part.1 

演讲题目

全场景高性能AI部署工具FastDeploy

[S52367]

Part.2

演讲时间

3 月 23 日 2:00 PM

Part.3

演讲人

雷青,百度飞桨高级产品经理

Part.4

演讲概要

FastDeploy是一款全场景、极致高效、易用灵活的AI推理部署工具,支持云边端部署。统一飞桨及生态的多端部署API,目前支持Paddle Inference、Paddle Lite、TensorRT、ONNX Runtime、Poros等推理引擎,一行命令可灵活切换多个推理引擎后端;同时支持Triton Inference Server,一款工具可实现快速的云边端部署。


通过集成CV-CUDA、FastTokenier、FlyCV等AI加速库,以及PaddleSlim自动压缩工具,实现AI模型端到端的性能优化。FastDeploy精心完成了部署API设计,确保不同语言的开发者能够享受到统一的API体验,不同语言只需要3行核心代码,就可以实现预置模型的高性能推理;预置的160+SOTA产业模型的端到端示例 ,快速完成AI的产业落地。

预约感兴趣的演讲内容

想要预约以上精彩内容?扫描下方图片二维码或点击“阅读原文”,即可搜索相关会议代码找到对应演讲内容,通过点击“Add to Schedule”或点击“星星”,将该演讲内容添加至您的日程,大会开始后登录即可在线观看。
例如:搜索演讲代码 [SE51302],点击 “Add to Schedule”,即可将该演讲添加至您的日程。
例如:搜索演讲代码 [S52366],发现没有 “Add to Schedule” 按钮,说明该演讲为点播形式,从3月22日开始即可在线观看。点击右上方的星星,将该演讲添加至您的日程。
如果尚未注册,请点击链接查看GTC 23注册教程。欢迎加入GTC 23,与全球AI者同行!
扫描下方海报二维码,即可免费注册GTC 23,切莫错过这场AI和元宇宙时代的技术大会!

关注【飞桨PaddlePaddle】公众号

获取更多技术内容~


Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/152499
 
345 次点击