主要内容

图像深度网络定制

定制深度学习训练循环和损失函数

如果trainingOptions函数没有提供任务所需的训练选项,或者自定义输出层不支持所需的损耗函数,那么可以定义自定义训练循环。对于不能使用层图创建的网络,您可以将自定义网络定义为一个函数。要了解更多,请参见定义自定义训练循环,损失函数和网络

功能

全部展开

dlnetwork 用于定制训练循环的深度学习网络
向前 计算用于训练的深度学习网络输出
预测 计算用于推理的深度学习网络输出
adamupdate 使用自适应矩估计(Adam)更新参数
rmspropupdate 使用均方根传播(RMSProp)更新参数
sgdmupdate 使用带动量的随机梯度下降(SGDM)更新参数
dlupdate 使用自定义函数更新参数
minibatchqueue 为深度学习创建小批量
onehotencode 将数据标签编码为单热向量
onehotdecode 将概率向量解码为类标签
初始化 初始化的可学习参数和状态参数dlnetwork
情节 图神经网络结构
addLayers 添加图层到图层图或网络
removeLayers 从图层图或网络中删除图层
connectLayers 在层图或网络中连接层
disconnectLayers 断开层图或网络中的层
replaceLayer 替换层中的层图或网络
总结 打印网络总结
trainingProgressMonitor 监控和绘制深度学习自定义训练循环的训练进度
dlarray 用于自定义训练循环的深度学习数组
dlgradient 使用自动区分计算自定义训练循环的梯度
dlfeval 评估自定义训练循环的深度学习模型

输入层

imageInputLayer 图像输入层
image3dInputLayer 三维图像输入层

卷积和完全连通层

convolution2dLayer 二维卷积层
convolution3dLayer 三维卷积层
groupedConvolution2dLayer 二维分组卷积层
transposedConv2dLayer 转置的二维卷积层
transposedConv3dLayer 转置的三维卷积层
fullyConnectedLayer 完全连接层

激活层

reluLayer 整流线性单元(ReLU)层
leakyReluLayer 漏校正线性单元(ReLU)层
clippedReluLayer 剪切整流线性单元(ReLU)层
eluLayer 指数线性单位(ELU)层
tanhLayer 双曲正切(tanh)层
swishLayer 时髦的层
geluLayer 高斯误差线性单位(GELU)层
functionLayer 功能层

归一化、删除和裁剪图层

batchNormalizationLayer 批归一化层
groupNormalizationLayer 集团标准化层
instanceNormalizationLayer 实例的归一化层
layerNormalizationLayer 一层一层正常化
crossChannelNormalizationLayer 通道方面的本地响应规范化层
dropoutLayer 辍学层
crop2dLayer 二维作物层
crop3dLayer 3 d作物层

池化和取消池化层

averagePooling2dLayer 平均池层
averagePooling3dLayer 三维平均池层
globalAveragePooling2dLayer 二维全球平均池化层
globalAveragePooling3dLayer 三维全球平均池层
globalMaxPooling2dLayer 全局最大池化层
globalMaxPooling3dLayer 三维全局最大池化层
maxPooling2dLayer 马克斯池层
maxPooling3dLayer 三维最大池化层
maxUnpooling2dLayer 马克斯unpooling层

结合层

additionLayer 添加层
multiplicationLayer 乘法层
concatenationLayer 连接层
depthConcatenationLayer 深度连接层

主题

Baidu
map