按类别查询搜索结果
关于关键词 的检测结果,共 1723
大镇 | 2016-12-15 11:32:47 | 阅读(1010) | 评论(0)
转自: http://www.cnblogs.com/dudu/p/4294238.html在Linux CentOS 6.6上安装Python 2.7.9CentOS 6.6自带的是Python 2.6.6,而编译llvm需要Python 2.7以上。checking for python... /usr/bin/pythonchecking for python >= 2.7... not foundconfigure: error: found python 2.6.6 (/usr/bin...【阅读全文】
夜色58 | 2016-12-13 09:42:09 | 阅读(1580) | 评论(0)
一,生成器        1,生成器的本质(必须有yield)        生成器def func():        print("111")  &n...【阅读全文】
【Python/Ruby】 day1-三级菜
夜色58 | 2016-11-15 22:18:15 | 阅读(1180) | 评论(0)
点击(此处)折叠或打开#!/usr/bin/env python#_*_ coding:utf-8 _*_import os,sysif os.path.isfile('menu_info.txt'):    passelse:    sys.exit("\033[31m没有定...【阅读全文】
enenshiwo | 2016-11-05 11:24:07 | 阅读(1920) | 评论(0)
前几天从接口拿下来一些东西,发现输出之后为类似:/u4e00-/u9fa5 这样的编码,本来以为是json解析的问题,后来发现是转码不对,直接转码会提示: js json.loads(res.encode())然后再就可以像数组一样'data'0'id'【阅读全文】
yueming | 2016-11-01 13:38:06 | 阅读(1300) | 评论(0)
开源python网络爬虫框架Scrapy介绍:所谓网络爬虫,就是一个在网上到处或定向抓取数据的程序,当然,这种说法不够专业,更专业的描述就是,抓取特定网站网页的HTML数据。不过由于一个网站的网页很多,而我们又不可能事先知道所有网页的URL地址,所以,如何保证我们抓取到了网站的所有HTML页面就是一个有待...【阅读全文】
【Python/Ruby】 django获取传的文件
大镇 | 2016-10-28 15:42:44 | 阅读(3280) | 评论(0)
1、html文件的表单中,需要有 enctype="multipart/form-data"    这样才能确保后台可以收到点击(此处)折叠或打开 #文件上传部分...【阅读全文】
bbzsxjj | 2016-10-28 15:25:43 | 阅读(2350) | 评论(0)
python python邮件发送 python邮件发送附件 Python实例 Python发送smtp邮件【阅读全文】
五岳之巅 | 2016-10-07 06:03:23 | 阅读(6020) | 评论(0)
开发环境:Win10+Python3.5+Selenium2.53.6+IE11,均为64 bit硬件环境:联想MIIX700语言环境:English(US)浏览器:Firefox(46.0.1)、IE(11.0.10240.16431)、Chrome(53.0.2785.143),均为64 bit刚才测试了一下,代码如下:from selenium import webdriverfrom bs4 import BeautifulSoup...【阅读全文】
2005227042 | 2016-09-12 11:25:34 | 阅读(3200) | 评论(0)
项目中使用Python总会由于某种原因(人力/时间/金钱等等),需要借助外部代码,幸好Python是容易扩展的语言,本文浅析三种常见方式:subprocess调用外部可执行程序;ctypes调用外部DLL函数;C/C++ Extending标准库。【阅读全文】
hiyachen | 2016-07-18 17:14:28 | 阅读(3910) | 评论(0)
python 科学计算学习一:numpy快速处理数据【阅读全文】
老爷康 | 2016-07-18 14:41:10 | 阅读(740) | 评论(0)
问:现在有一个需求,我程序启动后,为了防止用户误输入ctrl+D/C 而把任务给挂掉,想忽略或者捕捉这个信号,当然,ctrl+c发送中断信号,可以被忽略,但是类似于SIGKILL 和 SIGSTOP 信号不能被捕捉也不能被捕获我该怎么办,我想禁用掉他们,求解决答:...【阅读全文】
【Python/Ruby】 Python Requests速入门
大镇 | 2016-07-13 09:27:23 | 阅读(880) | 评论(0)
快速上手迫不及待了吗?本页内容为如何入门Requests提供了很好的指引。其假设你已经安装了Requests。如果还没有, 去 安装 一节看看吧。首先,确认一下:Requests 已安装Requests是 最新的让我们从一些简单的示例开始吧。发送请求使用Requests发送网络请...【阅读全文】
yueys_canedy | 2016-07-08 08:27:12 | 阅读(25030) | 评论(0)
    最近刚开始使用python来做爬虫爬取相关数据,使用了python自带的urllib和第三方库requests,解析html使用了beautifulsoup以及lxml    这里说下lxml,lxml是python的一个html、xml解析库,lxml使用XPath能快速,简单的定位元素并获取信息。下面进入正题1. 遇到的中文乱码问题1.1 简单...【阅读全文】
派大星861205 | 2016-07-02 01:11:45 | 阅读(1450) | 评论(0)
python中函数和lambda参数默认值的问题【阅读全文】
winecork | 2016-06-22 09:55:13 | 阅读(950) | 评论(0)
参看:http://www.cnblogs.com/fnng/p/3576154.html点击(此处)折叠或打开import urllib import redef getHtml(url):    page = urllib.urlopen(url)    html = page.read()...【阅读全文】
【Python/Ruby】 python collections
TT小饭 | 2016-06-19 10:47:45 | 阅读(480) | 评论(0)
古丁高手 | 2016-05-26 14:46:14 | 阅读(1240) | 评论(0)
开源python网络爬虫框架Scrapy介绍:所谓网络爬虫,就是一个在网上到处或定向抓取数据的程序,当然,这种说法不够专业,更专业的描述就是,抓取特定网站网页的HTML数据。不过由于一个网站的网页很多,而我们又不可能事先知道所有网页的URL地址,所以,如何保证我们抓取到了网站的所有HTML页面就是一个有待...【阅读全文】
古丁高手 | 2016-05-26 11:17:22 | 阅读(1270) | 评论(0)
实例,官方有个实例教程,算是比较简单了,然后后面有更详细的一项项解释,不过老实讲我还真是看不太懂,很多地方没有给出实例,所以我在网上找了一大堆资料后,弄了一个实例。现在列出来跟大家分享。1.实例初级目标:从一个网站的列表页抓取文章列表,然后存入数据库中,数据库包括文章标题、链接、时间首先生成...【阅读全文】
laoliulaoliu | 2016-05-17 18:02:21 | 阅读(830) | 评论(0)
原文地址:http://www.chengxuyuans.com/Python/67370.htmlPython 用下划线作为变量前缀和后缀指定特殊变量/方法。主要存在四种情形1.    1. object # public    2. __object__ # special, python system use, user should not define like it    3. __object # priva...【阅读全文】
呆若 | 2016-05-11 10:52:40 | 阅读(1580) | 评论(0)
文件结构webapp_temlate.pytemplates/├── form.html├── home.html└── signok.htmlwebapp_temlate.py点击(此处)折叠或打开#!/usr/bin/env python3#-*- coding:utf-8 -*-''''''from flask import Flask...【阅读全文】