按类别查询搜索结果
关于关键词 的检测结果,共 556
【Python/Ruby】 Python 络编程
xinhaojie | 2017-01-09 20:44:25 | 阅读(1330) | 评论(0)
Python 提供了两个级别访问的网络服务。:高级别的网络服务模块 SocketServer, 它提供了服务器中心类,可以简化网络服务器的开发。什么是 Socket?Socket又称"套接字",应用程序通常通过"套接字"向网络发出请求或者应答网络请求,使主机间或者一台计算机上的进程间可以通讯。socket()函数Python...【阅读全文】
皮皮鲁童年 | 2016-12-28 09:12:43 | 阅读(160) | 评论(0)
hmchzb19 | 2016-12-24 14:13:11 | 阅读(1440) | 评论(0)
1.  这是个已经shutdown的网站,曾经提供JSON IP and GeoIP REST APIhttp://www.telize.com/2.  这个网站很不错,提供xml/json/csv的输出https://freegeoip.net/点击(此处)折叠或打开root@kali:/usr/local/src/py/network# curl freegeoip.net/csv/123.161.***.***...【阅读全文】
yueming | 2016-11-01 13:38:06 | 阅读(1290) | 评论(0)
开源python网络爬虫框架Scrapy介绍:所谓网络爬虫,就是一个在网上到处或定向抓取数据的程序,当然,这种说法不够专业,更专业的描述就是,抓取特定网站网页的HTML数据。不过由于一个网站的网页很多,而我们又不可能事先知道所有网页的URL地址,所以,如何保证我们抓取到了网站的所有HTML页面就是一个有待...【阅读全文】
老爷康 | 2016-07-18 14:41:10 | 阅读(740) | 评论(0)
问:现在有一个需求,我程序启动后,为了防止用户误输入ctrl+D/C 而把任务给挂掉,想忽略或者捕捉这个信号,当然,ctrl+c发送中断信号,可以被忽略,但是类似于SIGKILL 和 SIGSTOP 信号不能被捕捉也不能被捕获我该怎么办,我想禁用掉他们,求解决答:...【阅读全文】
yueys_canedy | 2016-07-08 08:27:12 | 阅读(25000) | 评论(0)
    最近刚开始使用python来做爬虫爬取相关数据,使用了python自带的urllib和第三方库requests,解析html使用了beautifulsoup以及lxml    这里说下lxml,lxml是python的一个html、xml解析库,lxml使用XPath能快速,简单的定位元素并获取信息。下面进入正题1. 遇到的中文乱码问题1.1 简单...【阅读全文】
winecork | 2016-06-22 09:55:13 | 阅读(950) | 评论(0)
参看:http://www.cnblogs.com/fnng/p/3576154.html点击(此处)折叠或打开import urllib import redef getHtml(url):    page = urllib.urlopen(url)    html = page.read()...【阅读全文】
古丁高手 | 2016-05-26 14:46:14 | 阅读(1230) | 评论(0)
开源python网络爬虫框架Scrapy介绍:所谓网络爬虫,就是一个在网上到处或定向抓取数据的程序,当然,这种说法不够专业,更专业的描述就是,抓取特定网站网页的HTML数据。不过由于一个网站的网页很多,而我们又不可能事先知道所有网页的URL地址,所以,如何保证我们抓取到了网站的所有HTML页面就是一个有待...【阅读全文】
古丁高手 | 2016-05-26 11:17:22 | 阅读(1260) | 评论(0)
实例,官方有个实例教程,算是比较简单了,然后后面有更详细的一项项解释,不过老实讲我还真是看不太懂,很多地方没有给出实例,所以我在网上找了一大堆资料后,弄了一个实例。现在列出来跟大家分享。1.实例初级目标:从一个网站的列表页抓取文章列表,然后存入数据库中,数据库包括文章标题、链接、时间首先生成...【阅读全文】
bnt38 | 2016-05-22 22:58:20 | 阅读(0) | 评论(0)
selenium 非官方文档。https://github.com/baijum/selenium-pythonhttps://selenium-python.readthedocs.io/【阅读全文】
【Python/Ruby】 python络编程
呆若 | 2016-05-09 16:55:44 | 阅读(1190) | 评论(0)
客户端socket点击(此处)折叠或打开#!/usr/bin/env python3#-*- coding:utf-8 -*-''''''#导入socket网络编程模块import socket#创建客户端通信对象client_socket = socket.socket(socket.AF_IN...【阅读全文】
呆若 | 2016-05-09 14:22:56 | 阅读(1490) | 评论(0)
task_master.txttask_worker.txt点击(此处)折叠或打开#!/usr/bin/env python3#-*- coding:utf-8 -*-''''''import time,random,queuefrom multiprocessing.managers import BaseManagertask_...【阅读全文】
djstava | 2015-12-23 11:51:08 | 阅读(3140) | 评论(0)
关于PyQt5中的signal和slot【阅读全文】
OowarrioroO | 2015-12-06 18:32:44 | 阅读(3750) | 评论(0)
python 利用selenium模拟登录帐号验证网站并获取cookie
1.安装selenium package:
2.引入selenium package, 建立webdriver对象:安装相应ChromeDriver
?3。打开设定的url,并等待response:
4.通过xpath找到登录框,并填入相应帐号密码,模拟点击登录:
5。验证登录成功与否,若currenturl发生变化,则认为登录成功:
6。通过对象的方法获取当前访问网站的session cookie:
7.得到cookie之后,就可以通过urllib2访问相应的网站,并可实现网页爬取等工作:【阅读全文】
douyaqiang123 | 2015-11-04 17:32:20 | 阅读(1830) | 评论(0)
laoliulaoliu | 2015-10-28 17:03:52 | 阅读(1280) | 评论(0)
http://segmentfault.com/q/1010000000341014首先,sys.setdefaultencoding is evil。其次,不会用 Requests 就去看文档,不要乱来。如果 Requests 检测不到正确的编码,那么你告诉它正确的是什么:response.encoding = 'gbk' print response.text 原始内容在&nbs...【阅读全文】
adustdu2015 | 2015-10-11 00:43:06 | 阅读(1350) | 评论(0)
#一个小爬虫
#下载贴吧或空间张所有图片
#1.获取网页原代码
【阅读全文】
blackeysX | 2015-10-08 22:16:58 | 阅读(750) | 评论(0)
   今天看到自己新开的网易博客点击量寥寥,突然兴起,想写一个可以自动点击页面增加点击量的小工具。之前使用C++的时候,苦于找不到访问HTTP协议的API,不想涉及细节去考虑实现,幸好现在有Python自带的强大的urllib库,可以作为HTTP协议访问数据使用。老样子,先看下自己实现的代码原型,很简单:...【阅读全文】
blackeysX | 2015-10-08 22:16:04 | 阅读(690) | 评论(0)
   今天来看看Python的网络编程吧!与C/C++不同,Python提供了除SOCKET接口之外的其他实现方案,比如SocketServer类,比如Twisted服务器等。尽管如此,对于自己而言,能够实现网络通信即可,因此没有必要学会所有的实现方案,基于此,本章来简要介绍下Python下利用SOCKET库的编程。一、Python服务器  &n...【阅读全文】
youngsheldon | 2015-08-31 01:07:58 | 阅读(570) | 评论(1)
<br /><div><div class="codeheads"><p>点击(<span style="cursor:pointer;color:red;" onclick="code_hide('code176')">此处</span>)折叠或打开</p></div><div id="code176" class="codeText"><ol style="margin:0 1px 0 0px;padding-left:40px;" start="1" class="dp-css"><li><span style=...【阅读全文】