利炳根

欢迎付费咨询(150元每小时),我的微信:qingxingfengzi

  • 博客访问: 29782
  • 博文数量: 32
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 420
  • 用 户 组: 普通用户
  • 注册时间: 2017-05-13 22:10
  • 认证徽章:
个人简介

欢迎付费咨询(150元每小时),我的微信:qingxingfengzi

文章分类

全部博文(32)

文章存档

2017年(32)

我的朋友
微信关注

IT168企业级官微



微信号:IT168qiye



系统架构师大会



微信号:SACC2013

订阅
热词专题

发布时间:2017-08-12 11:13:33

首先向大家和《TensorFlow实战》的作者说句不好意思。我现在看的书是《TensorFlow实战》。但从TF024开始,我在学习笔记的参考资料里一直写的是《TensorFlow实践》,我自己粗心搞错了,希望不至于对大家造成太多误导。TensorBoard,TensorFlow官方可视化工具。展示模型训练过程各种汇总数据。标量(Scalars)、图片(Images).........【阅读全文】

阅读(6124) | 评论(0) | 转发(1)

发布时间:2017-08-12 11:10:43

Q-Learning,学习Action对应期望值(Expected Utility)。1989年,Watkins提出。收敛性,1992年,Watkins和Dayan共同证明。学习期望价值,从当前一步到所有后续步骤,总期望获取最大价值(Q值、Value)。Action->Q函数,最佳策略,在每个state下,选择Q值最高的Action。不依赖环境模型。有限马尔科夫决策过程(Markov Dectision .........【阅读全文】

阅读(218) | 评论(0) | 转发(0)

发布时间:2017-08-12 11:08:45

强化学习(Reinforcement Learing),机器学习重要分支,解决连续决策问题。强化学习问题三概念,环境状态(Environment State)、行动(Action)、奖励(Reward),目标获得最多累计奖励。强化学习模型根据环境状态、行动和奖励,学习出最佳策略,以最终结果为目标,不能只看某个行动当下带来的利益,还要看行动未来带来的价值。.........【阅读全文】

阅读(2222) | 评论(0) | 转发(1)

发布时间:2017-08-12 11:03:58

双向循环神经网络(Bidirectional Recurrent Neural Networks,Bi-RNN),Schuster、Paliwal,1997年首次提出,和LSTM同年。Bi-RNN,增加RNN可利用信息。普通MLP,数据长度有限制。RNN,可以处理不固定长度时序数据,无法利用历史输入未来信息。Bi-RNN,同时使用时序数据输入历史及未来数据,时序相反两个循环神经网络连接同一.........【阅读全文】

阅读(149) | 评论(0) | 转发(0)

发布时间:2017-08-12 10:50:28

神经结构进步、GPU深度学习训练效率突破。RNN,时间序列数据有效,每个神经元通过内部组件保存输入信息。卷积神经网络,图像分类,无法对视频每帧图像发生事情关联分析,无法利用前帧图像信息。RNN最大特点,神经元某些输出作为输入再次传输到神经元,可以利用之前信息。xt是RNN输入,A是RNN节点,ht是输出。对RNN输.........【阅读全文】

阅读(63) | 评论(0) | 转发(0)
给主人留下些什么吧!~~
留言热议
请登录后留言。

登录 注册