您好,登錄后才能下訂單哦!
通過python配合爬蟲接口利用selenium實(shí)現(xiàn)自動化打開chrome瀏覽器,進(jìn)行百度關(guān)鍵詞搜索。
1、安裝python3,訪問官網(wǎng)選擇對應(yīng)的版本安裝即可,最新版為3.7。
2、安裝selenium庫。
使用 pip install selenium 安裝即可。
同時需要安裝chromedriver,并放在python安裝文件夾下,如下圖所示。
3、獲取爬蟲接口鏈接。
注冊賬號,點(diǎn)擊爬蟲代理,領(lǐng)取每日試用。
from selenium import webdriver import requests,time #自建IP池 def get_proxy(): r = requests.get('http://127.0.0.1:5555/random') return r.text import random FILE = './tuziip.txt' # 讀取的txt文件路徑 # 獲取代理IP def proxy_ip(): ip_list = [] with open(FILE, 'r') as f: while True: line = f.readline() if not line: break ip_list.append(line.strip()) ip_port = random.choice(ip_list) return ip_port def bd(): chromeOptions = webdriver.ChromeOptions() # 設(shè)置代理 chromeOptions.add_argument("--proxy-server=http://"+proxy_ip()) # 一定要注意,=兩邊不能有空格,不能是這樣--proxy-server = http://202.20.16.82:10152 browser = webdriver.Chrome(chrome_options = chromeOptions) # 查看本機(jī)ip,查看代理是否起作用 browser.get("https://www.baidu.com/") browser.find_element_by_id("kw").send_keys("ip") browser.find_element_by_id("su").click() time.sleep(2) browser.find_element_by_id("kw").clear() time.sleep(1) browser.find_element_by_id("kw").send_keys("百度") browser.find_element_by_id("su").click() time.sleep(2) browser.find_element_by_id("kw").clear() time.sleep(1) browser.find_element_by_id("kw").send_keys("百度") browser.find_element_by_id("su").click() time.sleep(2) browser.find_element_by_id("kw").clear() time.sleep(1) browser.close() # 退出,清除瀏覽器緩存 browser.quit() if __name__ == "__main__": while True: bd()
5、運(yùn)行程序,如下圖所示,可自動化搜索。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。