日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

python爬蟲框架scrapy下載中間件的編寫方法_python

作者:S++ ? 更新時間: 2022-05-28 編程語言

下載中間件

在每一個scrapy工程中都有一個名為 middlewares.py 的文件,這個就是中間件文件
其中下載中間件的類為 XxxDownloaderMiddleware
其中有這么幾個方法

def process_request(self, request, spider):
return None
def process_response(self, request, response, spider):
return response
def process_exception(self, request, exception, spider):
pass

process_request

這個方法是用來攔截請求的,我們可以將UA偽裝寫在這個方法中。
UA池這個屬性需要自己編寫

def process_request(self, request, spider):
        # UA偽裝,從UA池隨機一個
        request.headers['User-Agent'] = random.choice(self.user_agent_list)
        return None

process_response

這個方法是用來攔截響應的,我們可以在這里篡改響應數據。
如果我們將selenium和scrapy結合就可以請求那些動態加載的數據了。

 def process_response(self, request, response, spider):
        # 瀏覽器對象
        bro = spider.bro
        # 參數spider是爬蟲對象
        # 挑選出指定響應對象進行篡改url->request->response
        bro.get(request.url)
        page_text = bro.page_source  # 包含了動態加載的數據
        # 針對定位到的response篡改
        # 實例化新的響應對象(包含動態加載的數據)
        response = HtmlResponse(url=bro.current_url, body=page_text, encoding='utf-8', request=request)
        return response

在爬蟲文件中需要預先創建selenium的瀏覽器對象

import scrapy
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver import ChromeOptions

class XxxSpider(scrapy.Spider):
    name = 'xxx'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['……']
    def __init__(self):
        service = Service('/Users/soutsukyou/PyCharm_Workspace/網絡爬蟲/study_selenium/chromedriver')
        chrome_options = ChromeOptions()
        # 規避檢測
        chrome_options.add_experimental_option('excludeSwitches', ['enable-automation'])
        # 實例化瀏覽器
        self.bro = webdriver.Chrome(service=service, options=chrome_options)

process_exception

這是用來攔截發生異常的請求對象,一般我們可以在這里寫代理ip。
兩個代理ip池屬性需要自己編寫

 def process_exception(self, request, exception, spider):
        # 可以設置代理ip
        if request.url.split(':')[0] == 'http':
            request.meta['proxy'] = 'http://'+random.choice(self.PROXY_http)
        if request.url.split(':')[0] == 'https':
            request.meta['proxy'] = 'https://'+random.choice(self.PROXY_https)
        # 重新請求發送
        return request

其它

我們需要在settings.py中開啟下載中間件才能使其生效

# Enable or disable downloader middlewares
# See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
DOWNLOADER_MIDDLEWARES = {
   'xxx.middlewares.XxxDownloaderMiddleware': 543,
}

原文鏈接:https://www.cnblogs.com/S2Jgogo/p/16052157.html

欄目分類
最近更新