Chinaunix首页 | 论坛 | 博客
  • 博客访问: 37276
  • 博文数量: 36
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 215
  • 用 户 组: 普通用户
  • 注册时间: 2017-05-11 14:32
文章分类

全部博文(36)

文章存档

2018年(4)

2017年(32)

我的朋友

发布时间:2017-09-15 16:06:29

2. 整理数据下载后的数据可以发现是一个压缩文件,解压后可以看到里面有一个xlsx文件,我们先用excel把它打开,接着“另存为“”csv格式,保存下来,后面我们就用这个csv来运行线性回归。打开这个csv可以发现数据已经整理好,没有非法数据,因此不需要做预处理。但是这些数据并没有归一化,也就是转化为.........【阅读全文】

阅读(463) | 评论(0) | 转发(0)

发布时间:2017-09-06 10:50:55

在接着写下去之前,我先列举一些 PEPs 以供参考:从这些 PEPs 中可以看出 Python 生成器 / 协程的发展历程:先是 PEP 255 引入了简单的生成器;接着 PEP 342 赋予了生成器 send() 方法,使其可以传递数据,协程也就有了实际意义;接下来,PEP 380 增加了 yield from 语法,简化了调用子生成器的.........【阅读全文】

阅读(476) | 评论(0) | 转发(0)

发布时间:2017-08-25 14:19:44

有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性。  租叉车 support python for yxc其中,agent就是请求的身份,如果没有写入请求身份,那么服务器不一定会响应,所以可以在headers中设置agent,例如下.........【阅读全文】

阅读(475) | 评论(0) | 转发(0)

发布时间:2017-08-21 15:40:33

1.URLError网络无连接,即本机无法上网连接不到特定的服务器服务器不存在Pythonimport urllib2 requset = urllib2.Request('h.........【阅读全文】

阅读(416) | 评论(0) | 转发(0)

发布时间:2017-08-17 09:31:08

怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它 是一段HTML代码,加 JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存在于HTML中的,下面我 们就写个例子来扒.........【阅读全文】

阅读(360) | 评论(0) | 转发(0)
给主人留下些什么吧!~~
留言热议
请登录后留言。

登录 注册