Chinaunix首页 | 论坛 | 博客
  • 博客访问: 176100
  • 博文数量: 23
  • 博客积分: 413
  • 博客等级: 一等列兵
  • 技术积分: 365
  • 用 户 组: 普通用户
  • 注册时间: 2011-02-28 15:31
个人简介

杭州智链达数据有限公司技术总监,兼联合创始人

文章分类
文章存档

2018年(2)

2017年(4)

2012年(15)

2011年(2)

发布时间:2017-12-04 18:52:49

在深度学习出现后,人脸识别技术才真正有了可用性。这是因为之前的机器学习技术中,难以从图片中取出合适的特征值。轮廓?颜色?眼睛?如此多的面孔,且随着年纪、光线、拍摄角度、气色、表情、化妆、佩饰挂件等等的不同,同一个人的面孔照片在照片象素层面上差别很大,凭借专家们的经验与试错难以取出准确率较高的特征值,自然也没法对这些特征值进一步分类。深度学习的最大优势在于由训练算法自行调整参数权重,构造出一个准确率较高的f(x)函数,给定一张照片则可以获取到特征值,进而再归类。本文中笔者试图用通俗的语言探讨人脸识别技术,首先概述人脸识别技术,接着探讨深度学习有效的原因以及梯度下降为什么可以训练出合适的权重参数,最后描述基于CNN卷积神经网络的人脸识别。......【阅读全文】

阅读(2801) | 评论(0) | 转发(0)

发布时间:2017-12-13 18:56:39

《基于GPU的性能建模与分布式深度学习框架评价》是在GPU训练性能上讨论了benchmark分析方法。从CPU到GPU后,训练时间降低了一些,但能降得更多些吗?换成多块GPU显卡,可以再下降吗?应当采购什么样的显卡,性价比最好?这场分享回答了以上问题。
我们如何设计网络模型,以使得GPU可以满载呢?这里要引入一个指标OI(operational insensity),它表示计算量除以带宽FLOPS/BYTES。例如:

求两个向量的点积,每个向量含n个float变量,那么计算量是2n,读写字节数是2*n*4......【阅读全文】

阅读(962) | 评论(0) | 转发(0)

发布时间:2017-12-13 18:56:05

《基于GPU的性能建模与分布式深度学习框架评价》是在GPU训练性能上讨论了benchmark分析方法。从CPU到GPU后,训练时间降低了一些,但能降得更多些吗?换成多块GPU显卡,可以再下降吗?应当采购什么样的显卡,性价比最好?这场分享回答了以上问题。
我们如何设计网络模型,以使得GPU可以满载呢?这里要引入一个指标OI(operational insensity),它表示计算量除以带宽FLOPS/BYTES。例如:

求两个向量的点积,每个向量含n个float变量,那么计算量是2n,读写字节数是2*n*4......【阅读全文】

阅读(869) | 评论(0) | 转发(0)

发布时间:2017-12-04 18:54:15

1、区块链技术是一个解决了拜占庭将军(百度百科拜占庭将军问题)节点的分布式数据系统!这是它最大的不同,也导致了这个技术存在诸多限制。

为了方便理解,先插个话题。做服务器端开发的程序员,都对zookeeper不陌生,我们解决分布式ACP问题时,寻找一致性解决方案时都会想到它。zookeeper实际使用了paxos的简化版算法(本文不展开,请参考我之前写过的两篇文章:paxos分布式一致性算法–讲述诸葛亮的反穿越 以及paxos算法如何容错的–讲述五虎将的实践)。想搞明白比特币(成于区块链技术)的算法,应先弄明白paxos算法(便于对比),目前商用的方案中,我们都假定服务器内网是不能被攻破的,所以,我们主要解决的是网络传输的不可靠,包括丢包、重发、延迟等问题,以及服务进程的bug导致的服务宕机、重启等。如果内网被攻破,黑客恶意的在某个节点(服务器)伪造网络包,向正常节点发送有问题的数据包,这种场景通常是不考虑的。显然这很合理,企业内网间如果还做大量的安全验证,性能消耗就太大了,基于成本使得商业目标几乎无法达成。......【阅读全文】

阅读(1471) | 评论(0) | 转发(0)
给主人留下些什么吧!~~
留言热议
请登录后留言。

登录 注册