新知榜官方账号
2023-10-03 06:28:31
在技术革新的浪潮下,智能硬件结合人工智能越来越广地进入了我们的生活。小到智能手机、手表,大到智能交通系统、工业自动检测平台等,无不渗透了人工智能的威力。此外,为人工智能深度学习定制的硬件近年来也有井喷之势。人工智能在多种服务平台,多种硬件下得到了越来越多的应用。这里的应用一般指的是深度学习模型在实际场景中的推理计算。针对多平台多硬件的场景,飞桨(PaddlePaddle)在今年8月份升级发布了PaddleLite推理引擎。它支持多种硬件、多种平台,还具备轻量化部署、高性能实现等重要特性。
PaddleLite支持如下特性:①多硬件平台支持;②轻量化部署;③高性能实现;④量化计算支持。
目前支持如下7种硬件:ARMCPUV7、V8MaliGPU,AdrenoGPU,MetalGPUHuaweiNPUFPGA
PaddleLite针对多硬件平台支持的问题,在架构上做了相应的设计:在具体架构上,由模型加载执行的顺序,严格拆分为分析和执行两个阶段。在体积敏感的场景下,PaddleLite可以选择轻量化部署方案,即可以只部署执行阶段,而复杂的分析优化则封装到了离线工具中。
PaddleLite的实现也是比较有优势的,比如在端侧推理非常主流的硬件ARMCPU上,MobileNetV1的性能如上,也是比较有优势的。
基于PaddleSlim的量化训练出的模型,结合PaddleLite的Int8量化预测能力,可以得到很有竞争力的Int8量化性能。
PaddleLite在架构的设计中,重点考虑了相对广泛的多硬件平台支持的能力。PaddleLite在Kernel层和MIR(图分析优化模块)均引入了适度的硬件支持,以支持硬件的针对优化,但通过通用的高层API来避免框架与具体硬件耦合。
PaddleLite的使用有如下几个步骤:(1)获取PaddlePaddle模型用PaddlePaddle训练可选通过PaddleSlim做模型压缩或用X2Paddle转换TF等第三方模型(2)model_optimize_tool优化模型(3)编写预测代码,集成到服务中C++接口Java接口获取模型的方法以下几种:参考PaddlePaddle文档训练新的模型直接使用Paddle/models标准模型库中提供的模型X2Paddle模型转换工具转化第三方模型PaddleSlim模型压缩工具集二次压缩PaddlePaddle模型之后是使用模型压缩工具优化模型,使用方法可以参考如下命令,完整教程可以参考文档。
PaddleLite未来计划如下,10月发布正式版,每个月一个版本高效迭代:框架能力和功能加强,如平台支持扩展,易用性完善,加密,显存优化等硬件支持范围持续扩大,新硬件评测支持能力提升整体性能优化,量化部署方案完善和模型覆盖范围增加文档持续优化:更多的demo,示例代码,可读性加强
相关工具
相关文章
推荐
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49
国产GLM-4.5把AI价格打到地板价,实测强到离谱!
2025-07-30 09:08
用AI批量生成治愈系漫画,月入2000+
2025-07-29 09:59
千亿市场规模背后,AI短剧商业化迎来爆发期?
2025-07-17 09:19
15个作品涨粉26万!AI历史账号又出王炸案例!
2025-07-09 09:37
亲测真香!这6个AI工具让工作效率翻倍,同事追着问链接
2025-06-17 16:21
FLUX.1 Kontext 一出,AI生图领域 “地震” 了!
2025-06-06 15:38
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15