非线性回归

描述非线性关系并根据实验数据做出预测

非线性回归是一种统计技术,有助于描述实验数据中的非线性关系。非线性回归模型通常被假设为参数化的,其中模型被描述为一个非线性方程。通常机器学习方法采用非参数非线性回归。

参数非线性回归将因变量(也称为响应)建模为非线性参数和一个或多个自变量(称为预测变量)组合的函数。模型可以是单变量(单个响应变量)或多变量(多个响应变量)。

参数可以采用指数函数、三角函数、幂函数或任何其他非线性函数的形式。为了确定非线性参数估计,通常使用迭代算法。

\ [y = f (X) \β)+ \ε\]

其中,\(\beta\)表示要计算的非线性参数估计,\(\epsilon\)表示误差项。

常用的拟合非线性回归的算法包括:

  • 高斯牛顿算法
  • 梯度下降算法
  • Levenberg-Marquardt算法

有关参数回归以及逐步回归、稳健回归、单变量回归和多变量回归的这些函数和其他函数,请参见统计和机器学习工具箱™.它可以用来:

  • 拟合非线性模型与数据,并比较不同模型
  • 生成预测
  • 评估参数置信区间
  • 评价拟合优度

对于非参数模型的使用机器学习神经网络、决策树和集成学习等技术,见深度学习工具箱™而且统计和机器学习工具箱™

要创建适合曲线、曲面和样条数据的模型,请参见曲线拟合工具箱™

参见:机器学习线性回归数据拟合数据分析数学建模什么是线性回归?机器学习模型时间序列回归

Baidu
map