溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python爬蟲的urllib庫作用是什么

發(fā)布時間:2021-09-04 13:55:11 來源:億速云 閱讀:201 作者:chen 欄目:開發(fā)技術

本篇內(nèi)容主要講解“python爬蟲的urllib庫作用是什么”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“python爬蟲的urllib庫作用是什么”吧!

目錄
  • 一、urllib庫是什么?

  • 二、urllib庫的使用

    • urllib.request模塊

    • urllib.parse模塊

    • 利用try-except,進行超時處理

    • status狀態(tài)碼 && getheaders()

  • 突破反爬

    一、urllib庫是什么?

    urllib庫用于操作網(wǎng)頁 URL,并對網(wǎng)頁的內(nèi)容進行抓取處理

    urllib包 包含以下幾個模塊:

    urllib.request - 打開和讀取 URL。

    urllib.error - 包含 urllib.request 拋出的異常。

    urllib.parse - 解析 URL。

    urllib.robotparser - 解析 robots.txt 文件

    python爬蟲主要用到的urllib庫中的request和parse模塊

    二、urllib庫的使用

    下面我們來詳細說明一下這兩個常用模塊的基本運用

    urllib.request模塊

    urllib.request 定義了一些打開 URL 的函數(shù)和類,包含授權驗證、重定向、瀏覽器 cookies等。

    語法如下:

    urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None,

    capath=None, cadefault=False, context=None)

     url:url 地址。

    data:發(fā)送到服務器的其他數(shù)據(jù)對象,默認為 None。

    timeout:設置訪問超時時間。

    cafile capath:cafile 為 CA 證書, capath 為 CA 證書的路徑,使用 HTTPS 需要用到。

    cadefault:已經(jīng)被棄用。

    context:ssl.SSLContext類型,用來指定 SSL 設置。

    # -*- codeing = utf-8 -*-
    # @Author: Y-peak
    # @Time : 2021/9/2 19:24
    # @FileName : testUrllib.py
    # Software : PyCharm
    import urllib.request
    #get請求
    response = urllib.request.urlopen("http://www.baidu.com")  #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象
    #print(response)  可以嘗試打印一下看一下
    print(response.read().decode('utf-8')) #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼

    python爬蟲的urllib庫作用是什么

    將其打印的內(nèi)容寫到一個html文件中,打開和百度一毛一樣

    # -*- codeing = utf-8 -*-
    # @Author: Y-peak
    # @Time : 2021/9/2 19:24
    # @FileName : testUrllib.py
    # Software : PyCharm
    import urllib.request
    response = urllib.request.urlopen("http://www.baidu.com")  #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象
    data = response.read().decode('utf-8')  #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
    #print(data)
    with open("index.html",'w',encoding='utf-8') as wfile: #或者你們也可以常規(guī)打開,不過需要最后關閉記得close()
        wfile.write(data)
        print("讀取結(jié)束")

    python爬蟲的urllib庫作用是什么

    urllib.parse模塊

    有時我們爬蟲需要模擬瀏覽器進行用戶登錄等操作,這個時候我們就需要進行post請求

    但是post必須有一個獲取請求之后的響應,也就是我們需要有一個服務器。給大家介紹一個免費的服務器網(wǎng)址,就是用來測試用的http://httpbin.org/。主要用來測試http和https的

    python爬蟲的urllib庫作用是什么

    python爬蟲的urllib庫作用是什么

    我們可以嘗試執(zhí)行一下,去獲取對應的響應。

    python爬蟲的urllib庫作用是什么

    python爬蟲的urllib庫作用是什么

    可以用Linux命令去發(fā)起請求,URL地址為http://httpbin.org/post。得到下方的響應。

    python爬蟲的urllib庫作用是什么

    我們也可以通過爬蟲來實現(xiàn)

    # -*- codeing = utf-8 -*-
    # @Author: Y-peak
    # @Time : 2021/9/2 19:24
    # @FileName : testUrllib.py
    # Software : PyCharm
    import urllib.request
    import urllib.parse #解析器
    data = bytes(urllib.parse.urlencode({"hello":"world"}),encoding='utf-8')  #轉(zhuǎn)換為二進制數(shù)據(jù)包,里面是鍵值對(有時輸入的用戶名:密碼就是這樣的),還有一些編碼解碼的數(shù)值等.這里就是按照utf-8的格式進行解析封裝生成二進制數(shù)據(jù)包
    response = urllib.request.urlopen("http://httpbin.org/post",data=data)  #返回的請求
    print(response.read().decode('utf-8'))      #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼

    兩個響應結(jié)果對比是不是一樣幾乎

    python爬蟲的urllib庫作用是什么

    python爬蟲的urllib庫作用是什么

    相當于進行了一次模擬的post請求。這樣有些需要登錄的網(wǎng)站也是可以爬取的。

    利用try-except,進行超時處理

    一般進行爬蟲時,不可能一直等待響應。有時網(wǎng)絡不好或者網(wǎng)頁有反爬或者一些其他東西時。無法快速爬出。我們就可以進入下一個網(wǎng)頁繼續(xù)去爬。利用timeout屬性就好

    # -*- codeing = utf-8 -*-
    # @Author: Y-peak
    # @Time : 2021/9/2 19:24
    # @FileName : testUrllib.py
    # Software : PyCharm
    import urllib.request
    try:
        response = urllib.request.urlopen("http://httpbin.org/get",timeout=0.01)  #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象, 直接用這個網(wǎng)址的get請求了.timeout表示超時,超過0.01秒不響應就報錯,避免持續(xù)等待
        print(response.read().decode('utf-8'))      #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
    except urllib.error.URLError as e:
        print("超時了\t\t錯誤為:",e)

    status狀態(tài)碼 && getheaders()

    status:

    • 返回200,正確響應可以爬取

    • 報錯404,沒有找到網(wǎng)頁

    • 報錯418,老子知道你就是爬蟲

    • getheaders():獲取Response Headers

    python爬蟲的urllib庫作用是什么 

    • 也可以通過gethead(“xx”) 獲取xx對應的值,比如:上圖 gethead(content-encoding) 為 gzip

    突破反爬

    首先打開任何一個網(wǎng)頁按F12找到Response Headers,拉到最下面找到 User-Agent。將其復制保存下來,為反爬做準備。

    python爬蟲的urllib庫作用是什么

    python爬蟲的urllib庫作用是什么

    下面我們進行嘗試,直接爬取豆瓣,直接來個418,知道你是爬蟲,我們來偽裝一下

    python爬蟲的urllib庫作用是什么

    為什么418呢,因為如果是直接進行請求訪問的話,發(fā)過去的User-Agent 是下面的,直接告訴瀏覽器我們是爬蟲。我們需要偽裝

    python爬蟲的urllib庫作用是什么

    # -*- codeing = utf-8 -*-
    # @Author: Y-peak
    # @Time : 2021/9/2 19:24
    # @FileName : testUrllib.py
    # Software : PyCharm
    import urllib.request
    headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"
    }
    request = urllib.request.Request("http://douban.com", headers=headers) #返回的是請求,將我們偽裝成瀏覽器發(fā)送的請求
    response = urllib.request.urlopen(request)  #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象
    data = response.read().decode('utf-8')     #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
    with open("index.html",'w',encoding='utf-8') as wfile: #或者你們也可以常規(guī)打開,不過需要最后關閉記得close()
        wfile.write(data)

    當然反爬不可能如此簡單,上面將講的那個 post請求,也是十分常見的突破反爬的方式,不行就將整個Response Headers全部模仿。下面還有個例子作為參考。和上面的post訪問的網(wǎng)址一樣

    瀏覽器訪問結(jié)果

    python爬蟲的urllib庫作用是什么

    爬蟲訪問結(jié)果

    # -*- codeing = utf-8 -*-
    # @Author: Y-peak
    # @Time : 2021/9/3 0:47
    # @FileName : testUrllib.py
    # Software : PyCharm
    
    import urllib.request
    import urllib.parse
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.159 Safari/537.36"
    }
    url = "http://httpbin.org/post"
    data = (bytes)(urllib.parse.urlencode({"賬戶":"密碼"}),encoding = 'utf-8')
    request = urllib.request.Request(url, data = data,headers=headers, method='POST') #返回的是請求
    response = urllib.request.urlopen(request)  #返回的是存儲網(wǎng)頁數(shù)據(jù)的對象
    data = response.read().decode('utf-8')     #通過read將數(shù)據(jù)讀取出來, 使用utf-8解碼防止有的地方出現(xiàn)亂碼
    print(data)

    python爬蟲的urllib庫作用是什么

    到此,相信大家對“python爬蟲的urllib庫作用是什么”有了更深的了解,不妨來實際操作一番吧!這里是億速云網(wǎng)站,更多相關內(nèi)容可以進入相關頻道進行查詢,關注我們,繼續(xù)學習!

    向AI問一下細節(jié)

    免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。

    AI