您好,登錄后才能下訂單哦!
下面我就給大家整理了Requests庫的使用方法和細節(jié)。
什么是Requests
Requests是Python語言編寫,基于urllib3,采用Apache2 Licensed開源協(xié)議的HTTP庫。它比urllib更加方便,可以節(jié)約我們大量的工作,完全滿足HTTP測試需求。是Python實現(xiàn)的簡單易用的HTTP庫。
安裝也很簡單:
pip?install?requests
1.實例引入
2.各種請求方式
1.基本GET請求
2.帶參數(shù)的GET請求這個我們前面有使用過,也是最常用的方法。運行成功就可以看到網(wǎng)頁的源碼了。
3.解析json傳入?yún)?shù)只需要我們把數(shù)據(jù)生成一個字典,然后調(diào)用params參數(shù),賦值給他就可以,是不是很方便。
可以看出Requests的jaon解析和json的loads方法解析出來的結(jié)果是完全一樣的。所以Requests可以很方便的解析json數(shù)據(jù)。
4.獲取二進制數(shù)據(jù)
運行成功我們可以看到content方法獲取的圖片頁面源碼是二進制數(shù)據(jù),而text獲取的則是字符串代碼。顯然獲取圖片這種二進制數(shù)據(jù)需要使用content方法。這樣我們就保存了圖片,我們可以在文件夾下看到這張圖片。
5.添加headers
有些網(wǎng)頁如果我們直接去請求的話,他會查看請求的對象是不是瀏覽器,如果沒有瀏覽器信息就會禁止我們爬蟲的訪問,這個時候我們就要給爬蟲加一個headers,加一個瀏覽器的user-agent信息。這樣我們就可以正常訪問了。如果有的伙伴不知道怎么得到User-Agent,可以打開瀏覽器的審查元素,找到network,隨便點擊一個鏈接就可以看到User-Agent的信息了。
6.基本POST請求
一個POST必然是要有一個Form Data的表單提交的,我們只要把信息傳給data參數(shù)就可以了。一個POST請求只需要調(diào)用post方法,是不是特別方便呢。如果不覺得方便的話,可以去參考urllib的使用方法。
1.response屬性
2.狀態(tài)碼判斷獲取這些信息只需要簡單的調(diào)用就可以實現(xiàn)了。
好了,這篇文章我們了解了Requests庫的基本語法操作,相信大家對Requests庫的請求和響應已經(jīng)很清楚了,大家完全可以抓取一些網(wǎng)頁了。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。