33:42视频长度为33:42。
利用GPU Coder将深度学习网络部署到嵌入式GPU和cpu
概述
由于嵌入式设备固有的资源限制,在嵌入式CPU和GPU平台上设计和部署深度学习和计算机视觉应用程序具有挑战性。一个MATLAB®基于工作流方便这些应用程序的设计,并自动生成C或CUDA®代码可以部署在像Jetson TX2和DRIVE PX这样的板上,并实现非常快速的推理。
演示演示了MATLAB如何支持该工作流的所有主要阶段。从算法设计开始,该算法可以采用深度学习网络,辅以传统的计算机视觉技术,并可在MATLAB中进行测试和验证。接下来,在桌面、集群或云中使用GPU和MATLAB的并行计算支持来训练这些网络。最后,GPU Coder™生成可移植和优化的C/ c++和/或CUDA®然后交叉编译并部署到cpu和/或Tegra上®董事会。基准测试表明,自动生成的CUDA代码的性能比TensorFlow快约5倍®比MXNet快2倍。
突出了
观看这段对话,学习如何:
1.访问和管理大型图像集
2.可视化网络,深入了解培训过程
3.导入参考网络,如AlexNet和GoogLeNet
4.自动生成可移植和优化的CUDA代码从MATLAB算法的NVIDIA gpu
5.从MATLAB实现的深度学习网络自动生成可移植和优化的代码,用于Intel Xeon cpu和ARM Cortex-A处理器
关于主讲人
Bill Chou是GPU Coder的产品营销经理,在过去的12年里一直从事MathWorks代码生成技术的工作。Bill持有南加州大学电气工程硕士学位和英属哥伦比亚大学电气工程学士学位。
记录:2018年6月20日
您也可以从以下列表中选择网站:
如何获得最佳的网站性能
选择中国网站(中文或英文)以获得最佳的网站表现。其他MathWorks国家网站没有针对从您的位置访问进行优化。