主要内容

深度学习自定义训练循环

定制深度学习训练循环和损失函数

如果trainingOptions函数没有提供任务所需的训练选项,或者自定义输出层不支持所需的损耗函数,那么可以定义自定义训练循环。对于不能使用层图创建的网络,您可以将自定义网络定义为一个函数。要了解更多,请参见定义自定义训练循环,损失函数和网络

功能

全部展开

dlnetwork 用于定制训练循环的深度学习网络
resetState 重置神经网络状态参数
情节 图神经网络结构
addInputLayer 添加网络输入层
addLayers 添加图层到图层图或网络
removeLayers 从图层图或网络中删除图层
connectLayers 在层图或网络中连接层
disconnectLayers 断开层图或网络中的层
replaceLayer 替换层中的层图或网络
总结 打印网络总结
初始化 初始化的可学习参数和状态参数dlnetwork
networkDataLayout 可学习参数初始化的深度学习网络数据布局
向前 计算用于训练的深度学习网络输出
预测 计算用于推理的深度学习网络输出
adamupdate 使用自适应矩估计(Adam)更新参数
rmspropupdate 使用均方根传播(RMSProp)更新参数
sgdmupdate 使用带动量的随机梯度下降(SGDM)更新参数
dlupdate 使用自定义函数更新参数
minibatchqueue 为深度学习创建小批量
onehotencode 将数据标签编码为单热向量
onehotdecode 将概率向量解码为类标签
padsequences 将序列数据填充或截断到相同的长度
trainingProgressMonitor 监控和绘制深度学习自定义训练循环的训练进度
dlarray 用于自定义训练循环的深度学习数组
dlgradient 使用自动区分计算自定义训练循环的梯度
dlfeval 评估自定义训练循环的深度学习模型
会变暗 尺寸的标签dlarray
finddim 查找具有指定标签的尺寸
stripdims 删除dlarray数据格式
extractdata 从中提取数据dlarray
isdlarray 检查对象是否为dlarray
functionToLayerGraph 将深度学习模型函数转换为层图
dlconv 深度学习卷积
dltranspconv 深度学习转置了卷积
lstm 长时间的短期记忆
格勒乌 封闭的复发性单元
注意 点积的关注
嵌入 嵌入离散数据
fullyconnect 对所有加权输入数据求和并应用偏差
dlode45 非刚性常微分方程的深度学习解
线性整流函数(Rectified Linear Unit) 应用整流线性单元激活
leakyrelu 应用漏纠正线性单元激活
gelu 应用高斯误差线性单位(GELU)激活
batchnorm 对每个通道的所有观测数据进行独立规范化
crosschannelnorm 使用局部响应进行跨通道平方归一化
groupnorm 为每个观察独立地在分组的通道子集中规范化数据
instancenorm 对每个观察独立地跨每个通道进行归一化
layernorm 为每个观察独立地规范化所有渠道的数据
avgpool 将数据汇集为空间维度上的平均值
maxpool 将数据池到最大值
maxunpool 取消最大池化操作的输出池化
softmax 应用softmax激活通道尺寸
乙状结肠 应用乙状结肠激活
乙状结肠 应用乙状结肠激活
crossentropy 分类任务的交叉熵损失
l1loss l1回归任务的丢失
l2loss l2回归任务的丢失
休伯 用于回归任务的Huber损失
均方误差 一半均方误差
ctc 未对齐序列分类的连接时间分类(CTC)损失
dlaccelerate 加速自定义训练循环的深度学习功能
AcceleratedFunction 加速深度学习功能
clearCache 清晰加速深度学习功能跟踪缓存

主题

自定义训练循环

模型函数

自动分化

深度学习功能加速

Baidu
map