您好,登錄后才能下訂單哦!
這篇文章主要介紹用python爬蟲在知乎上提取圖片的示例,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!
下面的代碼注釋請仔細(xì)閱讀,中間有一個(gè)小BUG,需要手動(dòng)把pic3修改為pic2這個(gè)地方目前原因不明確,可能是我本地網(wǎng)絡(luò)的原因,還有請?jiān)陧?xiàng)目根目錄先創(chuàng)建一個(gè) imgs 的文件夾,用來存儲(chǔ)圖片
def download_img(self,data): ## 下載圖片 for item in data["data"]: content = item["content"] pattern = re.compile('<noscript>(.*?)</noscript>') imgs = pattern.findall(content) if len(imgs) > 0: for img in imgs: match = re.search('<img src="(.*?)"', img) download = match.groups()[0] download = download.replace("pic3", "pic2") # 小BUG,pic3的下載不到 print("正在下載{}".format(download), end="") try: with requests.Session() as s: with s.get(download) as img_down: # 獲取文件名稱 file = download[download.rindex("/") + 1:] content = img_down.content with open("imgs/{}".format(file), "wb+") as f: # 這個(gè)地方進(jìn)行了硬編碼 f.write(content) print("圖片下載完成", end="\n") except Exception as e: print(e.args) else: Pass
運(yùn)行結(jié)果為
以上是用python爬蟲在知乎上提取圖片的示例的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。