描述非线性关系并根据实验数据做出预测
非线性回归是一种统计技术,有助于描述实验数据中的非线性关系。非线性回归模型通常被假设为参数化的,其中模型被描述为一个非线性方程。通常机器学习方法采用非参数非线性回归。
参数非线性回归将因变量(也称为响应)建模为非线性参数和一个或多个自变量(称为预测变量)组合的函数。模型可以是单变量(单个响应变量)或多变量(多个响应变量)。
参数可以采用指数函数、三角函数、幂函数或任何其他非线性函数的形式。为了确定非线性参数估计,通常使用迭代算法。
\ [y = f (X) \β)+ \ε\]
其中,\(\beta\)表示要计算的非线性参数估计,\(\epsilon\)表示误差项。
常用的拟合非线性回归的算法包括:
- 高斯牛顿算法
- 梯度下降算法
- Levenberg-Marquardt算法
有关参数回归以及逐步回归、稳健回归、单变量回归和多变量回归的这些函数和其他函数,请参见统计和机器学习工具箱™.它可以用来:
- 拟合非线性模型与数据,并比较不同模型
- 生成预测
- 评估参数置信区间
- 评价拟合优度
对于非参数模型的使用机器学习神经网络、决策树和集成学习等技术,见深度学习工具箱™而且统计和机器学习工具箱™.
要创建适合曲线、曲面和样条数据的模型,请参见曲线拟合工具箱™.