研究生课程:机器学习-第5章 回归分析

《机器学习》课程笔记:第5章 回归分析

第5章 回归分析

概述

回归问题:

根据给定的训练集,其中(预测的结果是连续函数值)

要求寻找上的决策函数

性能评价:

均方误差:

泛化误差可分解为偏差、方差和噪声之和

线性回归原理:使用线性函数来预测数据的分布

最小二乘估计

目标函数:最小误差平方和

求解:

最大似然估计

正态分布假设的似然函数

误差服从正态分布:

似然函数:,可以转换为对数的形式

高斯误差的最大似然估计=最小二乘估计

优化学习:梯度下降方法

最大后验估计

正态分布的先验似然函数:

最大后验估计目标函数:

高斯分布的最大后验估计 = 正则化最小二乘估计

正则化最小二乘估计解:

正则项解决过拟合问题

扩展的非线性模型

线性基函数回归

线性回归:

扩展的非线性回归:

基函数形式:多项式函数、高斯分布函数、sigmoid类型的函数、tanh类型的函数

多项式回归:

误差分析

正则项对Bias和Variance的影响

参数估计

最小二乘估计是无偏估计

正则化最小二乘估计是有偏估计

使得参数估计更加稳定

相当于增加正则项

相当于加入白噪声


研究生课程:机器学习-第5章 回归分析
https://zhangzhao219.github.io/2022/09/22/UCAS/machine-learning/machine-learning-5/
作者
Zhang Zhao
发布于
2022年9月22日
许可协议