Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4116
  • 博文数量: 15
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 161
  • 用 户 组: 普通用户
  • 注册时间: 2022-07-06 14:11
文章分类
文章存档

2022年(15)

我的朋友
最近访客

发布时间:2022-07-06 17:27:32

  PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活函数的例子:在上面这个例子中,输入是包含两个正值、两个负值的张量,对其调用ReLU函数,负值将取为0,正值则保持不变。现在我们已经了解了构建神经网.........【阅读全文】

阅读(76) | 评论(0) | 转发(0)

发布时间:2022-07-06 14:21:39

PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活函数的例子......【阅读全文】

阅读(69) | 评论(0) | 转发(0)
给主人留下些什么吧!~~
留言热议
请登录后留言。

登录 注册