使用GPU编码器在NVIDIA驱动器上原型和部署,Jetson
了解如何使用NVIDIA的GPU Coder硬件支持包®gpu原型,验证和部署您的深度学习模型和算法在MATLAB中®为嵌入式视觉,自动驾驶应用在NVIDIA gpu,如NVIDIA Drive和Jetson平台。您可以在MATLAB中使用连接到NVIDIA Drive或Jetson平台的传感器的实时数据创建和验证您的算法。您还可以使用MATLAB中的验证数据运行硬件在环测试。最后,您可以交叉编译并将应用程序部署到NVIDIA gpu上。
GPU编码器为您在MATLAB中完成的深度学习算法生成可移植和优化的CUDA代码,其中包括预处理和后处理应用逻辑以及训练过的神经网络。
使用NVIDIA GPU使用的GPU编码器硬件支持包,您可以直接从MATLAB构建和部署您的算法到NVIDIA GPU,建议从MATLAB直接使用NVIDIA驱动器和Jetson平台。
这里我们有一个部署在PX2驱动器上的语义分割算法。类似地,在Jetson Xavier上,我们运行语义分割应用程序。
一旦您在MATLAB中构建了您的深度学习算法,硬件支持包允许我们使用来自硬件的实时数据为您的算法创建原型。在部署到目标之前,您可以在工作站上测试算法的健壮性。
例如,我们有一个围绕经过训练的VGG网络构建的深度学习算法,用于在MATLAB中进行语义分割。它在我的测试图像输入上工作得很好。
现在,通过使用支持包提供的这些api,我可以连接到NVIDIA驱动板,从连接到板上的摄像机传感器读取输入,并在MATLAB中运行推理。在我们的一个实验室里有一台干燥的PX2,我们把摄像头对准窗外,俯瞰新英格兰的一些树叶。
你可以看到算法在实时数据上是有效的。有一些工件,如云和构造,它们不是训练数据的一部分。所以我可以迭代和更新算法来提高它的鲁棒性。
下一步是使用如下所示的cod生成api从算法生成代码。您可以使用这些api在Windows或Linux机器上构建应用程序并将其部署到目标GPU上。生成的代码包括到相机和驱动器上的显示器的接口。
下面是根据生成的代码编译的语义分割应用程序,我们可以将其作为一个独立的应用程序在驱动器PX2上启动。遵循类似的工作流程并改变一些选项,我们也在Jetson Xavier板上部署了相同的算法。
要了解更多信息,请参考下面的GPU编码器资源链接,您可以通过从插件库下载支持包来尝试这个示例。
您也可以从以下列表中选择网站:
如何获得最佳的网站性能
选择中国网站(中文或英文)以获得最佳的网站表现。其他MathWorks国家网站没有针对从您的位置访问进行优化。