Chinaunix首页 | 论坛 | 博客
  • 博客访问: 666159
  • 博文数量: 90
  • 博客积分: 1631
  • 博客等级: 上尉
  • 技术积分: 1413
  • 用 户 组: 普通用户
  • 注册时间: 2008-04-15 22:43
文章分类
文章存档

2017年(8)

2016年(9)

2015年(11)

2014年(10)

2013年(9)

2012年(9)

2010年(2)

2009年(10)

2008年(22)

我的朋友

发布时间:2016-03-23 16:12:24

函数:ksdensity功能:根据给定的数据,估计概率密度分布示例:1. 正态分布x = randn(1,100000); [y,xi] = ksdensity(x);plot(xi,y, 'bo')% 验证hold onyn=normpdf(xi,0,1); % 标准正态分布的概率密度函数plot(xi,yn,'b')2. 瑞利分布x = abs(randn(1,10000) + 1i*randn(1,10000));[y,xi] = ksdensity(x.........【阅读全文】

阅读(9751) | 评论(0) | 转发(0)

发布时间:2016-03-21 22:44:05

function KL = kldiv(varValue,pVect1,pVect2,varargin)%KLDIV Kullback-Leibler or Jensen-Shannon divergence between two distributions.%   KLDIV(X,P1,P2) returns the Kullback-Leibler divergence between two%   distributions specified over the M variable values in vector X.  P1 is a% &n.........【阅读全文】

阅读(2758) | 评论(0) | 转发(0)

发布时间:2016-03-21 22:39:41

KL-distance是用来计算两组离散数值的信息量(相对熵)的,一般针对的是离散数据。可以用来做特征筛选。但如果是连续数据,则先要离散化求每个bin内的frequency后再计算KL-distance。KL-distance的解释:(1)http://en.wikipedia.org/wiki/Kullback–Leibler_divergence(2)http://mathworld.wolfram.com/RelativeEntr.........【阅读全文】

阅读(1549) | 评论(0) | 转发(0)
给主人留下些什么吧!~~

dreamjdn2013-10-15 11:52

T-bagwell:哥们,你头像的作者是我室友 :)

真是个厉害的舍友

回复  |  举报

T-bagwell2013-10-08 21:20

哥们,你头像的作者是我室友 :)

回复  |  举报

chinaunix网友2009-03-21 23:51

您好,我是中科院的学生,最近在学习蚁群算法在VRP上的应用,不是太懂VRP,看到您的博客里有一个关于VRP的matlab程序,如果方便的话,能不能发给我学习一下,万分感谢! 我的邮箱是:xpei@ipp.ac.cn

回复 |  删除 |  举报
留言热议
请登录后留言。

登录 注册