Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4565304
  • 博文数量: 1214
  • 博客积分: 13195
  • 博客等级: 上将
  • 技术积分: 9105
  • 用 户 组: 普通用户
  • 注册时间: 2007-01-19 14:41
个人简介

C++,python,热爱算法和机器学习

文章分类

全部博文(1214)

文章存档

2021年(13)

2020年(49)

2019年(14)

2018年(27)

2017年(69)

2016年(100)

2015年(106)

2014年(240)

2013年(5)

2012年(193)

2011年(155)

2010年(93)

2009年(62)

2008年(51)

2007年(37)

发布时间:2014-04-10 19:49:34

文章来源:http://blog.csdn.net/cyningsun/article/details/8735169   话说今天《机器学习》上课被很深地打击了,标名为“数据挖掘”专业的我居然连个信息增益的例子都没能算正确。唉,自看书以来,这个地方就一直没有去推算过,每每看到决策树时看完Entropy就直接跳过后面增益计算了。因而,总想找个时间再.........【阅读全文】

阅读(4449) | 评论(0) | 转发(0)

发布时间:2014-04-07 12:56:42

文章来源:http://blog.csdn.net/cyningsun/article/details/8735169这三个指标均是决策树用来划分属性的时候用到的,其中信息增益(Info Gain)用于ID3,Gini用于CART,信息增益率(Info Gain Ratio)用于C4.5。提到前两个指标的计算时,首先要讲到的是关于熵(Entropy)的计算。1、熵(Entropy)理论上来说用.........【阅读全文】

阅读(464) | 评论(0) | 转发(0)

发布时间:2014-03-26 23:35:29

文章来源:http://blog.csdn.net/xiazdong/article/details/7950566多元线性回归其实方法和单变量线性回归差不多,我们这里直接给出算法:computeCostMulti函数[plain] view plaincopyfunction J = computeCostMulti(X, y, theta).........【阅读全文】

阅读(1688) | 评论(0) | 转发(0)

发布时间:2014-03-26 23:34:13

文章来源:http://blog.csdn.net/xiazdong/article/details/7950111一、算法实现由前面的理论,我们知道了用梯度下降解决线性回归的公式:梯度下降解决线性回归思路:算法实现:ComputeCost函数:[plain] view plain.........【阅读全文】

阅读(1289) | 评论(0) | 转发(0)

发布时间:2014-03-26 17:57:00

文章来源:http://blog.csdn.net/xiazdong/article/details/7950087本文会讲到: (1)另一种线性回归方法:Normal Equation;(2)Gradient Descent与Normal Equation的优缺点;前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点:(1)需要预先选定Learning rate;.........【阅读全文】

阅读(625) | 评论(0) | 转发(0)
给主人留下些什么吧!~~

北大未名居士2013-03-08 10:16

回复  |  举报

北大未名居士2013-03-08 10:16

回复  |  举报

pureal2012-05-09 12:01

你好,看到一个帖子发现你看过APUE2英文版,我也刚好看到读写锁,写饿死的问题。所以想认识交流下,我没找到你的邮箱,我的是dwdang@126.com

回复  |  举报

大鬼不动2010-09-23 00:47

回复  |  举报

chinaunix网友2009-10-12 16:19

你好,你在Google Code上放的sg2fcitx的mainme.c源代码我下载编译会出现段错误。请问你的编译环境是什么?GCC版本是多少? 谢谢。

回复 |  删除 |  举报
留言热议
请登录后留言。

登录 注册