溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

python爬蟲基本知識(shí)有哪些

發(fā)布時(shí)間:2021-08-04 09:09:16 來源:億速云 閱讀:132 作者:小新 欄目:開發(fā)技術(shù)

小編給大家分享一下python爬蟲基本知識(shí)有哪些,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

爬蟲簡(jiǎn)介

      根據(jù)百度百科定義:網(wǎng)絡(luò)爬蟲(又被稱為網(wǎng)頁(yè)蜘蛛,網(wǎng)絡(luò)機(jī)器人,在FOAF社區(qū)中間,更經(jīng)常的稱為網(wǎng)頁(yè)追逐者),是一種按照一定的規(guī)則,自動(dòng)地抓取萬維網(wǎng)信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動(dòng)索引、模擬程序或者蠕蟲。     

隨著大數(shù)據(jù)的不斷發(fā)展,爬蟲這個(gè)技術(shù)慢慢走入人們的視野,可以說爬蟲是大數(shù)據(jù)應(yīng)運(yùn)而生的產(chǎn)物,至少我解除了大數(shù)據(jù)才了解到爬蟲這一技術(shù)

隨著數(shù)據(jù)的海量增長(zhǎng),我們需要在互聯(lián)網(wǎng)上選取所需要的數(shù)據(jù)進(jìn)行自己研究的分析和實(shí)驗(yàn)。這就用到了爬蟲這一技術(shù),下面就跟著小編一起初遇python爬蟲!

一、請(qǐng)求-響應(yīng)

在利用python語(yǔ)言實(shí)現(xiàn)爬蟲時(shí),主要用到了urllib和urllib2兩個(gè)庫(kù)。首先用一段代碼說明如下:

 import urllib
 import urllib2
 url="http://www.baidu.com"
 request=urllib2.Request(url)
 response=urllib2.urlopen(request)
 print response.read()

我們知道一個(gè)網(wǎng)頁(yè)就是以html為骨架,js為肌肉,css為衣服所構(gòu)成的。上述代碼所實(shí)現(xiàn)的功能就是把百度網(wǎng)頁(yè)的源碼爬取到本地。

其中,url為要爬取的網(wǎng)頁(yè)的網(wǎng)址;request發(fā)出請(qǐng)求,response是接受請(qǐng)求后給出的響應(yīng)。最后用read()函數(shù)輸出的就是百度網(wǎng)頁(yè)的源碼。

二、GET-POST

兩者都是向網(wǎng)頁(yè)傳遞數(shù)據(jù),最重要的區(qū)別是GET方式是直接以鏈接形式訪問,鏈接中包含了所有的參數(shù),當(dāng)然如果包含了密碼的話是一種不安全的選擇,不過你可以直觀地看到自己提交了什么內(nèi)容。

POST則不會(huì)在網(wǎng)址上顯示所有的參數(shù),不過如果你想直接查看提交了什么就不太方便了,大家可以酌情選擇。

POST方式:

 import urllib
 import urllib2
 values={'username':'2680559065@qq.com','Password':'XXXX'}
 data=urllib.urlencode(values)
 url='https://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn'
 request=urllib2.Request(url,data)
 response=urllib2.urlopen(request)
 print response.read()

GET方式:

import urllib
import urllib2
values={'username':'2680559065@qq.com','Password':'XXXX'}
data=urllib.urlencode(values)
url = "http://passport.csdn.net/account/login"
geturl = url + "?"+data
request=urllib2.Request(geturl)
response=urllib2.urlopen(request)
print response.read()

三、異常處理

處理異常時(shí),用到了try-except語(yǔ)句。

import urllib2
 try:
   response=urllib2.urlopen("http://www.xxx.com")
 except urllib2.URLError,e:
   print e.reason

以上是“python爬蟲基本知識(shí)有哪些”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI