Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4120
  • 博文数量: 15
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 161
  • 用 户 组: 普通用户
  • 注册时间: 2022-07-06 14:11
文章分类
文章存档

2022年(15)

我的朋友
最近访客

发布时间:2022-07-11 10:42:14

本章涵盖了以下主题:
?分类和回归之外的其他类型的问题;
?评估问题,理解过拟合、欠拟合,以及解决这些问题的技巧;
?为深度学习准备数据。
请记住,在本章中讨论的大多数技术都是机器学习和深度学习通用的,一部分用于解决过拟合问题的技术(如dropout)除外。......【阅读全文】

阅读(283) | 评论(0) | 转发(0)

发布时间:2022-07-08 10:59:01

本章将介绍用于解决实际问题的深度学习架构的不同模块。前一章使用PyTorch的低级操作构建了如网络架构、损失函数和优化器这些模块。本章将介绍用于解决真实问题的神经网络的一些重要组件,以及PyTorch如何通过提供大量高级函数来抽象出复杂度。本章还将介绍用于解决真实问题的算法,如回归、二分类、多类别分类等。......【阅读全文】

阅读(243) | 评论(0) | 转发(0)

发布时间:2022-07-07 14:26:03

使用深度学习进行图像分类解决任何真实问题的重要一步是获取数据。Kaggle提供了大量不同数据科学问题的竞赛。我们将挑选一个2014年提出的问题,然后使用这个问题测试本章的深度学习算法,并在第5章中进行改进,我们将基于卷积神经网络(CNN)和一些可以使用的高级技术来改善图像识别模型的性能。大家可以从https://ww.........【阅读全文】

阅读(511) | 评论(0) | 转发(0)

发布时间:2022-07-06 17:27:32

  PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活函数的例子:在上面这个例子中,输入是包含两个正值、两个负值的张量,对其调用ReLU函数,负值将取为0,正值则保持不变。现在我们已经了解了构建神经网.........【阅读全文】

阅读(76) | 评论(0) | 转发(0)

发布时间:2022-07-06 14:21:39

PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活函数的例子......【阅读全文】

阅读(69) | 评论(0) | 转发(0)
给主人留下些什么吧!~~
留言热议
请登录后留言。

登录 注册