Chinaunix首页 | 论坛 | 博客
  • 博客访问: 165057
  • 博文数量: 59
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 606
  • 用 户 组: 普通用户
  • 注册时间: 2018-03-27 14:41
个人简介

宁为玉碎,不为瓦全

文章分类
文章存档

2024年(3)

2023年(28)

2022年(17)

2021年(10)

2019年(1)

我的朋友

分类: IT职场

2023-06-14 16:22:00

在我们python强大的库里面,Scrapy是一个功能强大的网络爬虫框架,允许开发者轻松地抓取和解析网站内容。在爬取有些网站数据的时候会遇到网页跳转的情况,一般HTTP返回状态码是200,非200状态码,需要单独处理。Scrapy默认只处理200状态码响应,非200状态码响应需要单独设置,如301永久跳转。
可以只处理301跳转
class MySpider(scrapy.Spider):
    handle_httpstatus_list = [301]

也可以单独设置某个请求
scrapy.request('', meta={'handle_httpstatus_list': [301]})

那么301和302 Http状态有啥区别?

301,302 都是HTTP状态的编码,都代表着某个URL发生了转移,不同之处在于: 301 redirect: 301 代表永久性转移(Permanently Moved), 302redirect: 302 代表暂时性转移(Temporarily Moved )。在项目实际中大家选择301跳转的可能性都要大些,因为SEO(搜索引擎优化)中提到一点:如果我们把一个地址采用301跳转方式跳转的话,搜索引擎会把老地址的PageRank等信息带到新地址,同时在搜索引擎索引库中彻底废弃掉原先的老地址 ,当然Http 状态 200 标示没有任何问题发生。  这里我们通过Scrapy框架访问百度跳转后的数据给大家参考下:
        #! -*- encoding:utf-8 -*-
        import base64            
        import sys
        import random


        PY3 = sys.version_info[0] >= 3


        def base64ify(bytes_or_str):
            if PY3 and isinstance(bytes_or_str, str):
                input_bytes = bytes_or_str.encode('utf8')
            else:
                input_bytes = bytes_or_str


            output_bytes = base64.urlsafe_b64encode(input_bytes)
            if PY3:
                return output_bytes.decode('ascii')
            else:
                return output_bytes


        class ProxyMiddleware(object):                
            def process_request(self, request, spider):
                # 代理服务器(产品官网 )
                proxyHost = "t.16yun.cn"
                proxyPort = "31111"


                # 代理验证信息
                proxyUser = "username"
                proxyPass = "password"


                # [版本>=2.6.2]()无需添加验证头,会自动在请求头中设置Proxy-Authorization     
                request.meta['proxy'] = "http://{0}:{1}@{2}:{3}".format(proxyUser,proxyPass,proxyHost,proxyPort)


                # 版本<2.6.2 需要手动添加代理验证头
                # request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort)
                # request.headers['Proxy-Authorization'] = 'Basic ' +  base64ify(proxyUser + ":" + proxyPass)                    


                # 设置IP切换头(根据需求)
                # tunnel = random.randint(1,10000)
                # request.headers['Proxy-Tunnel'] = str(tunnel)


                # 每次访问后关闭TCP链接,强制每次访问切换IP
                request.header['Connection'] = "Close"


阅读(202) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~