Py学习  »  Git

快到起飞!不用代码!一分钟体验 GitHub 上 20 个开源工具!!!

GitHubDaily • 3 年前 • 535 次点击  

公众号关注 “GitHubDaily”

设为 “星标”,每天带你逛 GitHub!


大家好,我是小 G。
今天跟大家分享百度在 GitHub 上开源的一波比较实用的模型工具,共 20 个。
开源模型效果体验,废话不说,先上图:
看到如此神奇,是不是手痒现在就想体验?步骤非常简单!
Step1:
点击 https://ai.baidu.com/easyedge/home 进入百度 EasyEdge 端计算模型生成平台
Step2:
点击 “立即使用” 进入操作中心后,选择 “体验开源模型”,点击想体验的模型,拿出手机(安卓苹果皆可)扫码,自动安装,等待几秒钟,即可打开 APP 实时体验各类模型的效果。
这就是 EasyEdge 平台最近升级给开发者提供的 “开源模型体验” 功能,一行代码不用写,还支持苹果手机,妥妥的开发者福利啊!
除了上面演示的 OCR 模型,公开的模型还有菜品识别,能识别 8416 种菜!
     
蛳粉也能识别也是没谁了。
动物识别,能识别 7879 种动物:
更有一些通用的物体检测、人脸识别等模型:
什么都别说,扫码就对了。
言归正传,下面正式介绍一下 EasyEdge。
EasyEdge 是百度推出的端计算模型生成和服务平台,可基于多种深度学习框架、网络结构的模型,快捷生成端计算模型及封装 SDK,并灵活适配多种 AI 芯片与操作系统
目前 EasyEdge 的全部功能服务已预置在零门槛 AI 开发平台 EasyDL、全功能 AI 开发平台 BML 中,与模型训练环节紧密配合,提供一站式端到端的 AI 开发及离线推理服务。
随着人工智能的不断发展,越来越多的行业和业务场景在应用人工智能来提升效率并降低成本。
一方面,现在可以训练模型的框架非常之多,TensorFlow、PyTorch、飞桨PaddlePaddle 等等,训练模型变得越来越容易,对于框架的选择不同开发者也有各种使用偏好;
而在硬件方面,AI 芯片的种类也越来越多,除了传统的 CPU、GPU、ARM,各种 AI 的 ASIC 芯片也逐渐被推出,如华为的昇腾,算丰科技的比特大陆 SE,英特尔的 Myraid 计算卡等等。
同时,大家使用的手机 CPU 中都开始逐渐配备专门的 AI 芯片用于神经网络计算,如苹果 A 仿生芯片,海思 NPU,高通 DSP 等等。
每一类 AI 芯片都有自己的应用场景与独特的计算框架,然而不同深度学习框架能适配的芯片往往非常有限,如何将训练好的模型高效地部署到设备上,最大化利用芯片能力的同时保持精度无损失,是当前很多 AI 开发者遇到的技术难题。
EasyEdge 输入的是各类深度学习框架的训练好的模型,包括来自零门槛 AI 开发平台 EasyDL 及全功能 AI 开发平台 BML 训练所得的模型,经过转换、面向设备的兼容和加速、封装。输出的是支持各类芯片的端 / 边缘计算服务。
EasyEdge 支持目前所有主流的深度学习框架
  • PaddlePaddle

  • PyTorch

  • TensorFlow

  • MXNet

  • Caffe

  • DarNet

同时拥有目前最广泛的芯片支持:
芯片支持情况

CPU ARM       armv7、armv8 已支持
x86-64 with Intel® AVX2 and AVX512 已支持
Intel Atom with Intel® SSE 已支持
GPU NVIDIA GPU on x86-64 P4、T4、V100.. 已支持
NVIDIA GPU on ARM TX1、TX2、Nano、Xavier 已支持
Mali on ARM
即将支持
ASIC Kirin NPU (Cambrian) 970、980 已支持
Kirin NPU 990、820 已支持
Snapdragon DSP 660+ 已支持
Apple A-Bionic A12+ 已支持
HiSilicon NNIE Hi3559A、Hi3519A 已支持
Huawei Ascend Atlas 200、300 已支持
Intel Myriad VPU M2、MX、NCS 已支持
Baidu XPU 自研昆仑(MPW) 已支持
Bitmain SE50 已支持
RK NPU rk1808、rk1806 即将支持
EdgeBoard VMX 自研vmx 已支持
FPGA EdgeBoard FZ 自研ZU3、ZU5、ZU9 已支持
同时,EasyEdge 支持各类经典的、最新的深度学习网络,从 ResNet、MobileNet 到 Yolo、FasterRCNN,都可以很好的通过 EasyEdge 部署在不同设备之上。
完整的支持列表可以去 EasyEdge 官网查看:
https://ai.baidu.com/easyedge/home
为了能实现多种网络在不同芯片的高效部署,EasyEdge 后台提供了非常多的优化,如模型格式转换、图优化、芯片优化、模型低精度量化、模型裁剪和压缩等等。
模型转换为例,为适配各类框架和芯片,EasyEdge 会根据需要自动转换模型格式
模型转换
图优化中,会完成一些 OP 融合、OP 拆解、常量折叠、子图替换等操作。
op 融合
模型压缩过程中,会进行模型的低精度量化、模型通道裁剪等操作,在不降低模型精度的前提下,减少模型的体积,提升模型的运行速度。
模型压缩
定点量化
完整的 EasyEdge 技术介绍可以去 B 站百度大脑账号观看 EasyEdge 的各类讲解视频:
https://space.bilibili.com/485230140
以上能力都是 EasyEdge 后台根据用户的选择自动帮用户完成的
开发者只需选择框架,上传自己本地的模型,或者从 EasyDL 或 BML 中选择训练好的模型,选择需要适配的硬件,即可自动生成适配目标芯片的 SDK 和开发者套件。
开发者套件的使用十分简单便捷,无需关注深度学习、具体硬件等底层逻辑,只需关注输入图片和输出的识别结果即可。
还等什么,点击【阅读原文】,速来体验 EasyEdge 的开源模型吧!
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/99614
 
535 次点击