使用GPU编码器原型和部署在NVIDIA驱动器,Jetson
了解如何使用NVIDIA的GPU Coder硬件支持包®gpu在MATLAB中原型化、验证和部署深度学习模型和算法®用于嵌入式视觉、NVIDIA gpu上的自动驾驶应用程序,如NVIDIA Drive和Jetson平台。您可以在MATLAB中使用连接到NVIDIA Drive或Jetson平台的传感器的实时数据创建原型并验证算法。还可以使用MATLAB中的验证数据运行硬件在环测试。最后,您可以交叉编译并将应用程序部署到NVIDIA gpu。
GPU编码器在MATLAB中为您完整的深度学习算法生成可移植和优化的CUDA代码,其中包括预处理和后处理应用逻辑以及训练好的神经网络。
使用NVIDIA GPU使用的GPU编码器硬件支持包,您可以直接从MATLAB构建和部署算法到NVIDIA GPU,建议直接从MATLAB使用NVIDIA驱动器和Jetson平台。
这里我们在PX2驱动器上部署了语义分割算法。类似地,在Jetson Xavier上,我们有语义分割应用程序在运行。
一旦你在MATLAB中构建了你的深度学习算法,硬件支持包让我们使用来自硬件的实时数据来原型你的算法。在部署到目标之前,您可以在工作站上测试算法的健壮性。
例如,我们有一个围绕训练过的VGG网络构建的深度学习算法,用于在MATLAB中进行语义分割。它在我的测试图像输入中工作得很好。
现在,使用支持包提供的这些api,我可以连接到NVIDIA驱动板,从连接到该板的摄像机传感器读取输入,并在MATLAB中运行推理。我们在这里的一个实验室里有一台干燥的PX2,我们把摄像头对准窗外,俯瞰新英格兰的一些树叶。
你可以看到算法在实时数据上是有效的。有一些人工制品,比如云和结构,它们不是训练数据的一部分。因此,我可以迭代和更新算法,以提高其鲁棒性。
下一步是使用如下所示的cod生成api从算法生成代码。您可以使用这些api在Windows或Linux机器上构建应用程序并将其部署到目标GPU。生成的代码包括到摄像头的接口和驱动器上的显示器。
下面是由生成的代码编译的语义分割应用程序,我们可以将其作为一个独立的应用程序启动在驱动器PX2上。遵循类似的工作流程,只改变了几个选项,我们还在Jetson Xavier板上部署了相同的算法。
要了解更多信息,请参考下面的GPU编码器资源链接,您可以通过从插件库下载支持包来尝试这个示例。
您也可以从以下列表中选择一个网站:
如何获得最佳的网站性能
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。