溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

如何用Python爬蟲實現(xiàn)模擬知乎登錄

發(fā)布時間:2022-01-17 15:11:20 來源:億速云 閱讀:248 作者:iii 欄目:大數(shù)據(jù)

本篇內(nèi)容介紹了“如何用Python爬蟲實現(xiàn)模擬知乎登錄”的有關(guān)知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!

登錄原理

Cookie 的原理非常簡單,因為 HTTP 是一種無狀態(tài)的協(xié)議,因此為了在無狀態(tài)的 HTTP 協(xié)議之上維護(hù)會話(session)狀態(tài),讓服務(wù)器知道當(dāng)前是和哪個客戶在打交道,Cookie 技術(shù)出現(xiàn)了 ,Cookie 相當(dāng)于是服務(wù)端分配給客戶端的一個標(biāo)識。

如何用Python爬蟲實現(xiàn)模擬知乎登錄

  1. 瀏覽器第一次發(fā)起 HTTP 請求時,沒有攜帶任何 Cookie 信息

  2. 服務(wù)器把 HTTP 響應(yīng),同時還有一個 Cookie 信息,一起返回給瀏覽器

  3. 瀏覽器第二次請求就把服務(wù)器返回的 Cookie 信息一起發(fā)送給服務(wù)器

  4. 服務(wù)器收到HTTP請求,發(fā)現(xiàn)請求頭中有Cookie字段, 便知道之前就和這個用戶打過交道了。

實戰(zhàn)應(yīng)用

用過知乎的都知道,只要提供用戶名和密碼以及驗證碼之后即可登錄。當(dāng)然,這只是我們眼中看到的現(xiàn)象。而背后隱藏的技術(shù)細(xì)節(jié)就需要借助瀏覽器來挖掘了?,F(xiàn)在我們就用 Chrome 來查看當(dāng)我們填完表單后,究竟發(fā)生了什么?

如何用Python爬蟲實現(xiàn)模擬知乎登錄

(如果已經(jīng)登錄的,先退出)首先進(jìn)入知乎的登錄頁面 https://www.zhihu.com/#signin ,打開 Chrome 的開發(fā)者工具條(按 F12)先嘗試輸入一個錯誤的驗證碼觀察瀏覽器是如何發(fā)送請求的。

如何用Python爬蟲實現(xiàn)模擬知乎登錄

從瀏覽器的請求可以發(fā)現(xiàn)幾個關(guān)鍵的信息

  1. 登錄的 URL 地址是 https://www.zhihu.com/login/email

  2. 登錄需要提供的表單數(shù)據(jù)有4個:用戶名(email)、密碼(password)、驗證碼(captcha)、_xsrf。

  3. 獲取驗證碼的URL地址是 https://www.zhihu.com/captcha.gif?r=1490690391695&type=login

_xsrf 是什么?如果你對CSRF(跨站請求偽造)攻擊非常熟悉的話,那么你一定知道它的作用,xsrf是一串偽隨機數(shù),它是用于防止跨站請求偽造的。它一般存在網(wǎng)頁的 form 表單標(biāo)簽中,為了證實這一點,可以在頁面上搜索 “xsrf”,果然,_xsrf在一個隱藏的 input 標(biāo)簽中

如何用Python爬蟲實現(xiàn)模擬知乎登錄

摸清了瀏覽器登錄時所需要的數(shù)據(jù)是如何獲取之后,那么現(xiàn)在就可以開始寫代碼用 Python 模擬瀏覽器來登錄了。登錄時所依賴的兩個第三方庫是 requests 和 BeautifulSoup,先安裝

pip install beautifulsoup4==4.5.3
pip install requests==2.13.0

http.cookiejar 模塊可用于自動處理HTTP Cookie,LWPCookieJar 對象就是對 cookies 的封裝,它支持把 cookies 保存到文件以及從文件中加載。

而 session 對象 提供了 Cookie 的持久化,連接池功能,可以通過 session 對象發(fā)送請求

首先從cookies.txt 文件中加載 cookie信息,因為首次運行還沒有cookie,所有會出現(xiàn) LoadError 異常。

from http import cookiejar
session = requests.session()
session.cookies = cookiejar.LWPCookieJar(filename='cookies.txt')
try:
   session.cookies.load(ignore_discard=True)
except LoadError:
   print("load cookies failed")

獲取 xsrf

前面已經(jīng)找到了 xsrf 所在的標(biāo)簽,,利用 BeatifulSoup 的 find 方法可以非常便捷的獲取該值

def get_xsrf():
   response = session.get("https://www.zhihu.com", headers=headers)
   soup = BeautifulSoup(response.content, "html.parser")
   xsrf = soup.find('input', attrs={"name": "_xsrf"}).get("value")
   return xsrf

獲取驗證碼

驗證碼是通過 /captcha.gif 接口返回的,這里我們把驗證碼圖片下載保存到當(dāng)前目錄,由人工識別,當(dāng)然你可以用第三方支持庫來自動識別,比如 pytesser。

def get_captcha():
   """
   把驗證碼圖片保存到當(dāng)前目錄,手動識別驗證碼
   :return:
   """
   t = str(int(time.time() * 1000))
   captcha_url = 'https://www.zhihu.com/captcha.gif?r=' + t + "&type=login"
   r = session.get(captcha_url, headers=headers)
   with open('captcha.jpg', 'wb') as f:
       f.write(r.content)
   captcha = input("驗證碼:")
   return captcha

登錄

一切參數(shù)準(zhǔn)備就緒之后,就可以請求登錄接口了。

def login(email, password):
   login_url = 'https://www.zhihu.com/login/email'
   data = {
       'email': email,
       'password': password,
       '_xsrf': get_xsrf(),
       "captcha": get_captcha(),
       'remember_me': 'true'}
   response = session.post(login_url, data=data, headers=headers)
   login_code = response.json()
   print(login_code['msg'])
   for i in session.cookies:
       print(i)
   session.cookies.save()

請求成功后,session 會自動把服務(wù)端的返回的cookie 信息填充到 session.cookies 對象中,下次請求時,客戶端就可以自動攜帶這些cookie去訪問那些需要登錄的頁面了。

“如何用Python爬蟲實現(xiàn)模擬知乎登錄”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識可以關(guān)注億速云網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實用文章!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI