Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4428607
  • 博文数量: 1214
  • 博客积分: 13195
  • 博客等级: 上将
  • 技术积分: 9105
  • 用 户 组: 普通用户
  • 注册时间: 2007-01-19 14:41
个人简介

C++,python,热爱算法和机器学习

文章分类

全部博文(1214)

文章存档

2021年(13)

2020年(49)

2019年(14)

2018年(27)

2017年(69)

2016年(100)

2015年(106)

2014年(240)

2013年(5)

2012年(193)

2011年(155)

2010年(93)

2009年(62)

2008年(51)

2007年(37)

分类: IT业界

2020-08-07 11:25:29

https://blog.csdn.net/Dear_D/article/details/86144696
首先介绍一下相关指数R2R^{2}(也称 决定系数 coefficient of determination)。以下来自百度百科:

相关指数R2R^{2}表示一元多项式回归方程拟合度的高低,或者说表示一元多项式回归方程估测的可靠程度的高低。

总体平方和(Total Sum of Squares):TSS=∑ni=1(yi?yi???)2TSS=\sum_{i=1}^{n}\left ( y_{i}-\bar{y_{i}} \right )^{2}
回归平方和(Explained Sum of Squares):ESS=∑ni=1(yi??yi???)2ESS=\sum_{i=1}^{n}\left ( \hat{y_{i}}-\bar{y_{i}} \right )^{2}
残差平方和(Residual Sum of Squares ):RSS=∑ni=1(yi?yi?)2RSS=\sum_{i=1}^{n}\left ( y_{i}-\hat{y_{i}} \right )^{2}

三者关系:TSS = ESS + RSS

Y的观测值围绕其均值的总离差(total variation)可分解为两部分:一部分来自回归线(ESS),另一部分则来自随机势力(RSS)。在给定样本中,TSS不变,如果实际观测点离样本回归线越近,则ESS在TSS中占的比重越大,因此定义拟合优度:回归平方和ESS与Y的总离差TSS的比值。即R2=ESSTSS=1?RSSTSSR^{2} = \frac{ESS}{TSS} = 1-\frac{RSS}{TSS} 。
对于已经获取的样本数据,R2R^{2}表达式中的∑ni=1(yi?yi???)2\sum_{i=1}^{n}\left ( y_{i}-\bar{y_{i}} \right )^{2}为确定的数。因此R2R^{2}越大,意味着残差平方和∑ni=1(yi?yi?)2\sum_{i=1}^{n}\left ( y_{i}-\hat{y_{i}} \right )^{2}越小,即模型的拟合效果越好;R2R^{2}越小,残差平方和越大,即模型的拟合效果越差。在线性回归模型中,R2R^{2}表示解释变量对于预测变量变化的贡献率。R2R^{2}越接近于1,表示回归的效果越好。

看到这里应该很清楚r2_score的计算方式和其意义了。

格式:
sklearn.metrics.r2_score(y_true, y_pred, sample_weight=None, multioutput=’uniform_average’)

参数:
y_true:真实值。
y_pred:预测值。
sample_weight:样本权重。
multioutput:多维输入输出,可选‘raw_values’, ‘uniform_average’, ‘variance_weighted’或None。
默认为’uniform_average’;
‘variance_weighted’对所有输出的分数进行平均,并根据每个输出的方差进行加权。
‘raw_values’对每一对应列求其R2指数,返回一个与列数相同的一维数组。

示例:

from sklearn.metrics import r2_score
 y_true = y_true = [3, -0.5, 2, 7] y_pred = [2.5, 0.0, 2, 8] r2_score(y_true, y_pred) # 结果:0.9486081370449679 r2_score(y_true, y_pred, multioutput= 'uniform_average') # 结果:0.9486081370449679 y_true = [[0.5, 1], [-1, 1], [7, -6]] y_pred = [[0, 2], [-1, 2], [8, -5]] r2_score(y_true, y_pred, multioutput='variance_weighted') # 结果:0.9382566585956417 y_true = [1, 2, 3] y_pred = [1, 2, 3] r2_score(y_true, y_pred) # 结果: 1.0 y_true = [1, 2, 3] y_pred = [2, 2, 2] r2_score(y_true, y_pred) # 结果:0.0 y_true = [1, 2, 3] # bar{y} = (1+2+3)/ 3 = 2 y_pred = [3, 2, 1] # y - hat{y}(即y_true - y_pred) = [-2, 0, 2] r2_score(y_true, y_pred) # 结果:-3.0 y_true = [[0.5, 1], [-1, 1], [7, -6]] y_pred = [[0, 2], [-1, 2], [8, -5]] r2_score(y_true, y_pred, multioutput='raw_values') # 结果:array([0.96543779, 0.90816327])
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26

参考:
1.https://scikit-learn.org/stable/modules/generated/sklearn.metrics.r2_score.html#sklearn.metrics.r2_score
2.https://baike.baidu.com/item/相关指数

阅读(943) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~