按类别查询搜索结果
关于关键词 的检测结果,共 721
【Python/Ruby】 Python 志模块logging
huaius | 2013-06-03 13:02:55 | 阅读(2440) | 评论(0)
logging是Python中一个负责记录、输出以及管理日志信息的模块。当然开发者可以自己实现信息与日志的输出与保存,但是logging是推荐的方法,因为它的功能十分强大,而且具有良好的易用性和扩展性。先看一个简单的例子import logging #create loggermylogger = logging.getLogger...【阅读全文】
lolizeppelin | 2013-06-03 11:25:57 | 阅读(3770) | 评论(0)
点击(此处)折叠或打开print struct.calcsize('@HIHIIH65sII')print struct.calcsize('!HIHIIH65sII')print struct.calcsize('>HIHIIH65sII')print struct.calcsize('【阅读全文】
qinggzha | 2013-05-30 02:46:17 | 阅读(1430) | 评论(0)
huaius | 2013-05-27 15:39:46 | 阅读(2640) | 评论(0)
os模块的stat函数可以用来获得文件的详细信息import osthe_latest_modify_time = os.stat ( '/tmp/3.py' ).st_mtimestat返回的其他信息可以参考http://docs.python.org/2/library/os.htmlst_mode - protection bits,st_ino - inode number,st_dev...【阅读全文】
【Python/Ruby】 urllib2使用总
mengln77 | 2013-05-27 15:01:20 | 阅读(260) | 评论(0)
    urllib2是Python的一个获取URLs的组件。他以urlopen函数的形式提供了一个非常简单的接口,具有利用不同协议获取URLs的能力,同样提供了一个比较复杂的接口来处理一般情况。    urllib2支持获取不同格式的URLs例如:ftp、Gopher等,并利用它们相关网络协议进行获取。    ...【阅读全文】
mengln77 | 2013-05-27 15:00:32 | 阅读(1350) | 评论(0)
    mechanize是对urllib2的部分功能的替换,能够更好的模拟浏览器行为,在web访问控制方面做得更全面。结合beautifulsoup和re模块,可以有效的解析web页面,我比较喜欢这种方法。    下面主要总结了使用mechanize模拟浏览器的行为和几个例子(谷歌搜索,百度搜索和人人网登录等)1.初...【阅读全文】
【Python/Ruby】 BeautifulSoup使用总
mengln77 | 2013-05-27 15:00:18 | 阅读(230) | 评论(0)
    BeautifulSoup是Python的一个第三方库,可用于帮助解析html/XML等内容,以抓取特定的网页信息。目前最新的是v4版本,这里主要总结一下我使用的v3版本解析html的一些常用方法。1.初始化   导入模块#!/usr/bin/env pythonfrom BeautifulSoup import BeautifulSoup  ...【阅读全文】
Liu_JF_linux | 2013-05-26 16:16:59 | 阅读(890) | 评论(0)
http://ggmmchou.blog.163.com/blog/static/59333149201151733626676/ linux上php木马、后门查杀总结     经过联系断续一个月的对抗,网站被攻击、挂马、做SEO黑帽的问题终于告一段落,现在总结下经验。 Web Server(Nginx为例)1、为防止跨站感染,要做虚拟主机目录隔离(我是直接利用fpm建立多个程序池达到隔离效果)2、上传目录、include类的库文件目录要禁止代码执行(Nginx正则过滤)3、path_info漏洞修正:if ($request_filename 【阅读全文】
t7f6i0hccx | 2013-05-25 11:09:42 | 阅读(30) | 评论(0)
2013年4月25日四川省人民政府公告四川省人民政府原标题:省政府决定4月27日为全省哀悼日为表达全省各族人民对“4·20&rdquo,229xj5.com;芦山7.0级地震遇难同胞的深切哀悼,省政府决定,2013年4月27日为全省哀悼日。当天,停止公共娱乐活动,fxbz.webstarts.com,8时2分起,全省人民默哀3分钟,届时汽车...【阅读全文】
ji8q52v9l | 2013-05-25 10:53:14 | 阅读(90) | 评论(0)
TRANSMAX职场心得12条1.不要好高骛远,小事不愿做,大事不能做,要踏踏实实从小事做起;2.学习很重要,记住谦逊是美德,尤其是在学习上面,每个人都有值得你去学习的长处,不断学习,为自己的成长吸取养分,才能早日走出蘑菇岁月;3.要有敢于面对未知困难的勇气,要随时把握机会,l7l301.com,不要让机遇之神从你眼前溜走...【阅读全文】
o张4晓f倩b | 2013-05-18 23:22:06 | 阅读(210) | 评论(0)
随着岁月碾过的痕迹,心情不断的变化,闭上眼静思往事,在思绪游荡到某一个回忆片段时,一阵阵熟悉的味道慢慢飘来,在这尘封的记忆里,居然能想到那么多过去,缓缓的睁开双眼,去寻找压在箱底的日记,遗忘的角落里时常会有一些曾经属于自己的物件,翻开褶皱的日记本,懒散的看着回忆里的回忆,仿佛一切都渐行渐近,从撕碎的...【阅读全文】
z王6g小w小o8 | 2013-05-16 20:48:41 | 阅读(350) | 评论(0)
  面对保护知识产权的种种难题,优选路径是什么?近日,海淀区文化委员会创新思维,利用微电影这一全新模式,开展宣传,迈出了结结实实的一大步。  北京海淀区文化委员会领导在接受采访时表示,此次尝试微电影这种形式,一方面可以很好地普及知识产权保护的重要性和紧迫性,促进社会各界树立尊重知识、崇尚科学,保...【阅读全文】
o6n5m6jdvr | 2013-05-16 00:19:42 | 阅读(110) | 评论(0)
????印第安纳步行者队(1)-(0)亚特兰大老鹰队,9ry.net????迈阿密热火队胜密尔沃基雄鹿队,98:86;????布鲁克林网队(1)-(1)芝加哥公牛队????俄克拉荷马雷鸣队(1)-(0)休斯敦火箭队????纽约尼克斯队胜波士顿凯尔特人队,87:71;????迈阿密热火队(2)-(0)密尔沃基雄鹿队????...【阅读全文】
逸尘凌虚 | 2013-05-14 10:31:25 | 阅读(570) | 评论(0)
五岳之巅 | 2013-05-12 04:09:37 | 阅读(4450) | 评论(0)
    mechanize是对urllib2的部分功能的替换,能够更好的模拟浏览器行为,在web访问控制方面做得更全面。结合beautifulsoup和re模块,可以有效的解析web页面,我比较喜欢这种方法。    下面主要总结了使用mechanize模拟浏览器的行为和几个例子(谷歌搜索,百度搜索和人人网登录等)1.初...【阅读全文】
m4774411wang | 2013-05-11 22:52:17 | 阅读(1510) | 评论(0)
假设你想设计一个模块集(也就是一个python“包”)来统一处理声音文件和声音数据。通常由它们的扩展有不同的声音格式,例如:WAV,AIFF,AU),所以你可能需要创建和维护一个不断增长的各种文件格式之间的转换的模块集合。并且可能要执行声音数据处理(如混合,添加回声,应用平衡功能),所以你写一个永无止境的流模块...【阅读全文】
【Python/Ruby】 Python 数据
Larpenteur | 2013-05-10 06:09:55 | 阅读(260) | 评论(0)
数据结构基本上就是——它们是可以处理一些数据的结构 ,或者说,它们是用来存储一组相关数据的。在Python中有三种内建的数据结构——列表、元组和字典。列表list是处理一组有序项目的数据结构,即你可以在一个列表中存储一个 序列 的项目。列表中的项目应该包括在方括号中,这样Python就知道你是在指明一个列表。一...【阅读全文】
【Python/Ruby】 Python 数据
lvjing_linux | 2013-05-08 13:47:45 | 阅读(100) | 评论(0)
数据结构基本上就是——它们是可以处理一些数据的结构 ,或者说,它们是用来存储一组相关数据的。在Python中有三种内建的数据结构——列表、元组和字典。列表list是处理一组有序项目的数据结构,即你可以在一个列表中存储一个 序列 的项目。列表中的项目应该包括在方括号中,这样Python就知道你是在指明一个列表。一...【阅读全文】
kinfinger | 2013-05-07 21:01:38 | 阅读(1830) | 评论(0)
在Python中一切皆是对象,而在实现Python的C语言中,这些对象只不过是一些比较复杂的结构体而已。本文通过ctypes访问对象对应的结构体中的数据,加深对Python对象的理解。【阅读全文】
nbyh100 | 2013-05-05 15:31:35 | 阅读(2860) | 评论(0)
scrapy 作为抓取框架,包括了spider,pipeline基础设施scrapy 本身不能作为js engine,这就导致很多js生成的页面的数据会无法抓取到,因此,一些通用做法是webkit或者xmi_runner(firefox)。通过这个手段可以对于js生成的数据进行抓取。需要安装的包有python-webkit (相关依赖自行解决)Xvfb (用于非Xwindow环境)...【阅读全文】