主要内容

设置必备产品2022世界杯八强谁会赢?

为CUDA使用GPU Coder™®代码生成,安装指定的产品2022世界杯八强谁会赢?安装必备产品2022世界杯八强谁会赢?

墨西哥人设置

使用GPU Coder生成CUDA MEX时,代码生成器使用NVIDIA®MATLAB中包含的编译器和库®.根据开发计算机上的操作系统,您只需要设置MEX代码生成器。

窗户系统

如果你有多个版本的微软®Visual Studio®编译器的C/ c++语言安装在您的Windows®系统中,MATLAB选择一个作为默认编译器。如果选择的编译器与GPU Coder支持的版本不兼容,请更改选择。为支持微软Visual Studio版本,请参阅安装必备产品2022世界杯八强谁会赢?

要更改默认编译器,请使用墨西哥人设置c++命令。当你打电话墨西哥人设置c++, MATLAB会显示一个消息,其中包含设置不同编译器的链接。选择一个链接并更改用于构建MEX文件的默认编译器。在调用之前,所选择的编译器将保持默认值墨西哥人设置c++选择一个不同的默认值。有关更多信息,请参见改变默认的编译器.的墨西哥人设置c++命令只更改c++语言编译器。您还必须更改C的默认编译器墨西哥人设置C

Linux平台

MATLAB和CUDA Toolkit只支持Linux上C/ c++语言的GCC/ c++编译器®平台。有关支持的GCC/ g++版本,请参见安装必备产品2022世界杯八强谁会赢?

环境变量

独立代码(静态库、动态链接库或可执行程序)生成有额外的设置要求。GPU Coder使用环境变量来定位代码生成所需的必要工具、编译器和库。

请注意

在Windows上,工具、编译器和库路径中的空格或特殊字符会在构建过程中产生问题。您必须在不包含空格的位置安装第三方软件,或更改Windows设置,以支持为文件、文件夹和路径创建短名称。有关更多信息,请参见使用Windows短名称解决方案MATLAB的答案

平台 变量名 描述
窗户 CUDA_PATH

CUDA Toolkit安装路径。

例如:

C:\Program Files\NVIDIA GPU计算工具\CUDA\v11.2\

NVIDIA_CUDNN

cuDNN安装根文件夹的路径。根文件夹包含bin、include和lib子文件夹。

例如:

C:\Program Files\NVIDIA GPU计算工具\CUDA\v11.2\

NVIDIA_TENSORRT

TensorRT安装根文件夹的路径。根文件夹包含bin、data、include和lib子文件夹。

例如:

C:\Program Files\NVIDIA GPU计算工具\CUDA\v11.2\TensorRT\

OPENCV_DIR

OpenCV在主机上构建文件夹的路径。这个变量是构建和运行深度学习示例所必需的。

例如:

C:\Program Files\opencv\build

路径

CUDA可执行文件的路径。通常,CUDA Toolkit安装程序会自动设置此值。

例如:

C:\Program Files\NVIDIA GPU计算工具\CUDA\v11.2\bin

路径cudnn.dll动态库。此库的名称在安装时可能不同。

例如:

C:\Program Files\NVIDIA GPU计算工具\CUDA\v11.2\bin

路径nvinfer *TensorRT的动态库。此库的名称在安装时可能不同。

例如:

C:\Program Files\NVIDIA GPU计算工具\CUDA\v11.2\TensorRT\lib

路径nsysNVIDIA Nsight™系统的可执行文件。

例如:

C:\Program Files\NVIDIA Corporation\Nsight Systems 2021.1.1\target-windows-x64

OpenCV的动态链接库(DLL)路径。运行深度学习示例需要此变量。

例如:

C:\Program Files\opencv\build\x64\vc15\bin

Linux 路径

CUDA Toolkit可执行文件的路径。

例如:

/usr/local/cuda - 11.2 - / -垃圾箱

路径nsysNVIDIA Nsight系统的可执行文件。

例如:

2021.1.1 / target-linux-x64 /usr/local/Nsight系统

OpenCV库的路径。这个变量是构建和运行深度学习示例所必需的。

例如:

/usr/local/lib/

OpenCV头文件的路径。这个变量是构建深度学习示例所必需的。

例如:

/usr/local/include/opencv

LD_LIBRARY_PATH

CUDA库文件夹的路径。

例如:

/usr/local/cuda - 11.2 - / lib64

cuDNN库文件夹的路径。

例如:

/usr/local/cuda - 11.2 - / - lib64/

TensorRT™库文件夹的路径。

例如:

/usr/local/cuda - 11.2 - / - tensorrt/lib/

通往ARM的路径®目标硬件上的“计算库”文件夹。

例如:

/usr/local/arm_compute / lib /

LD_LIBRARY_PATH在ARM目标硬件上。

NVIDIA_CUDNN

cuDNN库安装根文件夹的路径。

例如:

/usr/local/cuda - 11.2 /

NVIDIA_TENSORRT

TensorRT库安装根文件夹的路径。

例如:

/usr/local/cuda - 11.2 - / - tensorrt/

ARM_COMPUTELIB

在ARM目标硬件上安装ARM计算库根文件夹的路径。在ARM目标硬件上设置此值。

例如:

/usr/local/arm_compute

验证设置

若要验证开发计算机是否具备GPU代码生成所需的所有工具和配置,请使用coder.checkGpuInstall函数。这个函数执行检查,以验证您的环境是否拥有GPU代码生成所需的所有第三方工具和库。你必须通过coder.gpuEnvConfig对象。该函数基于给定配置对象中指定的属性验证GPU代码生成环境。

您还可以使用相同的基于gui的应用程序,该应用程序执行相同的检查,可以使用以下命令启动,检查显卡安装

在MATLAB命令窗口中,输入:

gpuEnvObj = coder.gpuEnvConfig;gpuEnvObj。BasicCodegen = 1;gpuEnvObj。BasicCodeexec = 1;gpuEnvObj。DeepLibTarget =“tensorrt”;gpuEnvObj。DeepCodeexec = 1;gpuEnvObj。DeepCodegen = 1;结果= coder.checkGpuInstall (gpuEnvObj)

这里显示的输出是有代表性的。你的结果可能不同。

Compatible GPU: PASSED CUDA环境:PASSED cuFFT: PASSED cuSOLVER: PASSED cuBLAS: PASSED cuDNN环境:PASSED TensorRT环境:PASSED Basic Code Generation: PASSED Basic Code Execution: PASSED Deep Learning (TensorRT) Code Generation: PASSED Deep Learning (TensorRT) Code Execution: PASSED results = struct with fields: GPU: 1 CUDA: 1 cuDNN: 1 TensorRT: 1 basiccodegen: 1 deepcodeexec: 1 tensorrdatatype: 1 profiling: 0

另请参阅

应用程序

功能

对象

相关的话题

Baidu
map