新知榜官方账号
2023-10-03 06:28:31
在技术革新的浪潮下,智能硬件结合人工智能越来越广地进入了我们的生活。小到智能手机、手表,大到智能交通系统、工业自动检测平台等,无不渗透了人工智能的威力。此外,为人工智能深度学习定制的硬件近年来也有井喷之势。人工智能在多种服务平台,多种硬件下得到了越来越多的应用。这里的应用一般指的是深度学习模型在实际场景中的推理计算。针对多平台多硬件的场景,飞桨(PaddlePaddle)在今年8月份升级发布了PaddleLite推理引擎。它支持多种硬件、多种平台,还具备轻量化部署、高性能实现等重要特性。
PaddleLite支持如下特性:①多硬件平台支持;②轻量化部署;③高性能实现;④量化计算支持。
目前支持如下7种硬件:ARMCPUV7、V8MaliGPU,AdrenoGPU,MetalGPUHuaweiNPUFPGA
PaddleLite针对多硬件平台支持的问题,在架构上做了相应的设计:在具体架构上,由模型加载执行的顺序,严格拆分为分析和执行两个阶段。在体积敏感的场景下,PaddleLite可以选择轻量化部署方案,即可以只部署执行阶段,而复杂的分析优化则封装到了离线工具中。
PaddleLite的实现也是比较有优势的,比如在端侧推理非常主流的硬件ARMCPU上,MobileNetV1的性能如上,也是比较有优势的。
基于PaddleSlim的量化训练出的模型,结合PaddleLite的Int8量化预测能力,可以得到很有竞争力的Int8量化性能。
PaddleLite在架构的设计中,重点考虑了相对广泛的多硬件平台支持的能力。PaddleLite在Kernel层和MIR(图分析优化模块)均引入了适度的硬件支持,以支持硬件的针对优化,但通过通用的高层API来避免框架与具体硬件耦合。
PaddleLite的使用有如下几个步骤:(1)获取PaddlePaddle模型用PaddlePaddle训练可选通过PaddleSlim做模型压缩或用X2Paddle转换TF等第三方模型(2)model_optimize_tool优化模型(3)编写预测代码,集成到服务中C++接口Java接口获取模型的方法以下几种:参考PaddlePaddle文档训练新的模型直接使用Paddle/models标准模型库中提供的模型X2Paddle模型转换工具转化第三方模型PaddleSlim模型压缩工具集二次压缩PaddlePaddle模型之后是使用模型压缩工具优化模型,使用方法可以参考如下命令,完整教程可以参考文档。
PaddleLite未来计划如下,10月发布正式版,每个月一个版本高效迭代:框架能力和功能加强,如平台支持扩展,易用性完善,加密,显存优化等硬件支持范围持续扩大,新硬件评测支持能力提升整体性能优化,量化部署方案完善和模型覆盖范围增加文档持续优化:更多的demo,示例代码,可读性加强
相关工具
相关文章
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16