Edge AI的MATLAB和Simulink

将机器学习和深度学习应用程序部署到嵌入式系统

模拟、测试和部署机器学习和深度学习模型到边缘设备和嵌入式系统。为完整的AI应用程序生成代码,包括预处理和后处理算法。

用MATLAB®和仿真软件®,你可以:

  • 生成优化的C/ c++和CUDA代码,用于部署到cpu和gpu
  • 生成可合成的Verilog和VHDL代码,用于部署到fpga和soc
  • 使用硬件优化的深度学习库加速推理,包括oneDNN, Arm计算库和TensorRT
  • 将预先训练好的TensorFlow Lite (TFLite)模型合并到部署到硬件的应用程序中
  • 压缩AI模型,使用超参数调优、量化和网络修剪工具在资源受限的硬件上进行推理

“从数据注释到选择、训练、测试和微调我们的深度学习模型,MATLAB拥有我们所需的所有工具,而GPU Coder使我们能够快速部署到NVIDIA GPU上,尽管我们的GPU经验有限。”

瓦莱里奥·因布里奥罗,德拉斯集团
将C/ c++代码部署到嵌入式硬件映像的屏幕截图。

cpu和微控制器

使用MATLAB Coder™和Simulink Coder™从训练有素的机器学习和深度学习模型生成可移植的优化C/ c++代码。可选地在生成的代码中包含对特定于供应商的库的调用,这些库针对深度学习推理进行了优化,例如oneDNN和Arm®计算库。

Simulink中的C/ c++代码被部署到NVIDIA桌面和嵌入式GPU的图像上的截图。

gpu

生成优化的CUDA®使用GPU Coder™训练深度学习网络的代码。在网络中包括预处理和后处理,以便将完整的算法部署到桌面、服务器和嵌入式gpu。使用英伟达®CUDA库,如TensorRT™和cuDNN,以最大化性能。

在MATLAB的原型硬件上运行基于FPGA的深度学习推理,然后生成用于部署在任何FPGA或ASIC上的深度学习HDL IP核。

fpga和soc

使用深度学习HDL工具箱™在fpga和soc上原型和实现深度学习网络。为流行的FPGA开发套件编程深度学习处理器和数据移动IP核。使用HDL Coder™生成自定义深度学习处理器IP核和比特流。

分层图、校准统计数据和验证结果的截图,以优化用于嵌入式部署的AI模型。

人工智能模型压缩

通过大小感知超参数调优和权重、偏差和激活的量化,减少机器学习和深度学习模型的内存需求。通过修剪不重要的层连接来最小化深度神经网络的大小。

Baidu
map