【学习笔记】回归算法-岭回归
具有L2正则化的线性最⼩⼆乘法。岭回归是⼀种专⽤于线性数据分析的有偏估计回归⽅法,实质上是⼀种改良的最⼩⼆乘估计法,通过放弃最⼩⼆乘法的⽆偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归⽅法,对病态数据的拟合要强于最⼩⼆乘法。当数据集中存在共线性的时候,岭回归就会有⽤。
正则化程度的变化,对结果的影响:
sklearn.linear_model.Ridge(alpha=1.0)
具有l2正则化的线性最⼩⼆乘法
alpha:正则化⼒度
coef_:回归系数
正则化最小二乘问题使⽤岭回归预测中的波斯顿房价的例⼦:
from sklearn.linear_model import Ridge
...
# 岭回归预测房价
rd = Ridge(alpha=1.0)
rd.fit(x_train, y_train)
f_)
y_rd_predict = std_y.inverse_transform(rd.predict(x_test))
print("岭回归预测的房⼦价格:", y_rd_predict)
print("岭回归的均⽅误差:", mean_squared_error(std_y.inverse_transform(y_test), y_rd_predict))
线性回归 LinearRegression与Ridge对⽐:岭回归:回归得到的回归系数更符合实际,更可靠。另外,能让估计参数的波动范围变⼩,变的更稳定。在存在病态数据偏多的研究中有较⼤的实⽤价值。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。