Chinaunix首页 | 论坛 | 博客
  • 博客访问: 686595
  • 博文数量: 90
  • 博客积分: 1631
  • 博客等级: 上尉
  • 技术积分: 1413
  • 用 户 组: 普通用户
  • 注册时间: 2008-04-15 22:43
文章分类
文章存档

2017年(8)

2016年(9)

2015年(11)

2014年(10)

2013年(9)

2012年(9)

2010年(2)

2009年(10)

2008年(22)

我的朋友

发布时间:2016-04-09 08:39:06

似然比检验 转载自http://blog.sina.com.cn/s/blog_4a45f01301013ndt.html似然比(likelihood ratio, LR) 是反映真实性的一种指标,属于同时反映灵敏度和特异度的复合指标。即有病者中得出某一筛检试验结果的概率与无病者得出这一概率的比值.........【阅读全文】

阅读(20543) | 评论(0) | 转发(1)

发布时间:2016-03-23 16:12:24

函数:ksdensity功能:根据给定的数据,估计概率密度分布示例:1. 正态分布x = randn(1,100000); [y,xi] = ksdensity(x);plot(xi,y, 'bo')% 验证hold onyn=normpdf(xi,0,1); % 标准正态分布的概率密度函数plot(xi,yn,'b')2. 瑞利分布x = abs(randn(1,10000) + 1i*randn(1,10000));[y,xi] = ksdensity(x.........【阅读全文】

阅读(10122) | 评论(0) | 转发(0)

发布时间:2016-03-21 22:44:05

function KL = kldiv(varValue,pVect1,pVect2,varargin)%KLDIV Kullback-Leibler or Jensen-Shannon divergence between two distributions.%   KLDIV(X,P1,P2) returns the Kullback-Leibler divergence between two%   distributions specified over the M variable values in vector X.  P1 is a% &n.........【阅读全文】

阅读(2875) | 评论(0) | 转发(0)

发布时间:2016-03-21 22:39:41

KL-distance是用来计算两组离散数值的信息量(相对熵)的,一般针对的是离散数据。可以用来做特征筛选。但如果是连续数据,则先要离散化求每个bin内的frequency后再计算KL-distance。KL-distance的解释:(1)http://en.wikipedia.org/wiki/Kullback–Leibler_divergence(2)http://mathworld.wolfram.com/RelativeEntr.........【阅读全文】

阅读(1691) | 评论(0) | 转发(0)
给主人留下些什么吧!~~

dreamjdn2013-10-15 11:52

T-bagwell:哥们,你头像的作者是我室友 :)

真是个厉害的舍友

回复  |  举报

T-bagwell2013-10-08 21:20

哥们,你头像的作者是我室友 :)

回复  |  举报

chinaunix网友2009-03-21 23:51

您好,我是中科院的学生,最近在学习蚁群算法在VRP上的应用,不是太懂VRP,看到您的博客里有一个关于VRP的matlab程序,如果方便的话,能不能发给我学习一下,万分感谢! 我的邮箱是:xpei@ipp.ac.cn

回复 |  删除 |  举报
留言热议
请登录后留言。

登录 注册