模拟、测试和部署机器学习和深度学习模型到边缘设备和嵌入式系统。为完整的AI应用程序生成代码,包括预处理和后处理算法。
用MATLAB®和仿真软件®,你可以:
- 生成优化的C/ c++和CUDA代码,用于部署到cpu和gpu
- 生成可合成的Verilog和VHDL代码,用于部署到fpga和soc
- 使用硬件优化的深度学习库加速推理,包括oneDNN, Arm计算库和TensorRT
- 将预先训练好的TensorFlow Lite (TFLite)模型合并到部署到硬件的应用程序中
- 压缩AI模型,使用超参数调优、量化和网络修剪工具在资源受限的硬件上进行推理
“从数据注释到选择、训练、测试和微调我们的深度学习模型,MATLAB拥有我们所需的所有工具,而GPU Coder使我们能够快速部署到NVIDIA GPU上,尽管我们的GPU经验有限。”
瓦莱里奥·因布里奥罗,德拉斯集团
cpu和微控制器
使用MATLAB Coder™和Simulink Coder™从训练有素的机器学习和深度学习模型生成可移植的优化C/ c++代码。可选地在生成的代码中包含对特定于供应商的库的调用,这些库针对深度学习推理进行了优化,例如oneDNN和Arm®计算库。
gpu
生成优化的CUDA®使用GPU Coder™训练深度学习网络的代码。在网络中包括预处理和后处理,以便将完整的算法部署到桌面、服务器和嵌入式gpu。使用英伟达®CUDA库,如TensorRT™和cuDNN,以最大化性能。
fpga和soc
使用深度学习HDL工具箱™在fpga和soc上原型和实现深度学习网络。为流行的FPGA开发套件编程深度学习处理器和数据移动IP核。使用HDL Coder™生成自定义深度学习处理器IP核和比特流。
人工智能模型压缩
通过大小感知超参数调优和权重、偏差和激活的量化,减少机器学习和深度学习模型的内存需求。通过修剪不重要的层连接来最小化深度神经网络的大小。