溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Python練習(xí)【爬取銀行網(wǎng)站信息】

發(fā)布時(shí)間:2020-06-18 05:51:22 來源:網(wǎng)絡(luò) 閱讀:530 作者:流域哈哈 欄目:編程語言

功能實(shí)現(xiàn)

爬取所有銀行的銀行名稱和官網(wǎng)地址(如果沒有官網(wǎng)就忽略),并寫入數(shù)據(jù)庫;
銀行鏈接: http://www.cbrc.gov.cn/chinese/jrjg/index.html

編程思路

1.利用url訪問頁面并獲取頁面信息
2.利用正則表達(dá)式對頁面信息進(jìn)行篩選,獲取我們需要的信息
3.保存至Mysql數(shù)據(jù)庫中

1.獲取網(wǎng)頁信息并保存至文件

from urllib.request import urlopen

# 獲取頁面信息
def getPageInfo(url):
    pageInfo = urlopen(url)
    content = pageInfo.read().decode('utf-8')
    return content

# 主函數(shù)
def main():
    url = 'http://www.cbrc.gov.cn/chinese/jrjg/index.html'
    pageInfo = getPageInfo(url)
    print(pageInfo)

Python練習(xí)【爬取銀行網(wǎng)站信息】

  • 一些網(wǎng)站常常通過判斷 UA(User-Agent用戶代理) 來給不同的操作系統(tǒng)、不同的瀏覽器發(fā)送不同的頁面,因此可能造成某些頁面無法在某個(gè)瀏覽器中正常顯示,但通過偽裝 UA 可以繞過檢測。
    查看瀏覽器UA

    Python練習(xí)【爬取銀行網(wǎng)站信息】

    獲取頁面信息
def main():
    url = 'http://www.cbrc.gov.cn/chinese/jrjg/index.html'
    #修改UA,偽裝成瀏覽器,以獲取相應(yīng)頁面
    user_agent = "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko Core/1.63.6788.400 QQBrowser/10.3.2864.400"
    reqObj = request.Request(url, headers={'User-Agent': user_agent})
    pageInfo = getPageInfo(reqObj)
    print(pageInfo)

保存到文件方便查看
# 保存到文件pageContent
def saveInfo(data):
    with open('doc/pageContent','w+',encoding='utf-8') as f:
        f.write(data)

2.利用正則篩選所需信息

Python練習(xí)【爬取銀行網(wǎng)站信息】

圖中是獲取的頁面信息中所需信息中的一例
需要獲取其中的 網(wǎng)址 和 銀行名稱
使用的正則表達(dá)式為'<a href="(http.*?)".*?>\s+(.+?)\s+?</a>'
這里注意利用\s+匹配額外的\t和\n
# 利用正則匹配獲取信息
def getInfo(data):
    pattern = r'<a href="(http.*?)".*?>\s+(.+?)\s+?</a>'
    info = re.findall(pattern ,data)
    print(info)
匹配到的信息:

Python練習(xí)【爬取銀行網(wǎng)站信息】


3.保存數(shù)據(jù)至數(shù)據(jù)庫

首先在mysql中創(chuàng)建一個(gè)名為bankUrl的數(shù)據(jù)庫

Python練習(xí)【爬取銀行網(wǎng)站信息】

連接數(shù)據(jù)庫
## 連接數(shù)據(jù)庫
conn = pymysql.connect(
        host='localhost', # 主機(jī)名
        user='root', # 用戶名
        password='mysql',  # 密碼
        database='bankUrl', # 連接對應(yīng)數(shù)據(jù)庫
        charset='utf8', # utf-8編碼
        autocommit=True # 自動(dòng)提交數(shù)據(jù)

    )
    cur = conn.cursor() # 創(chuàng)建游標(biāo)
        # 刪除重建表格來刷新每次寫入的數(shù)據(jù)
    cur.execute('drop table bankurl') 
    creatTableSql = 'create table if not exists bankUrl(銀行名稱 varchar(20),網(wǎng)址 varchar(100))default charset=utf8;'
    cur.execute(creatTableSql)
        # 寫入數(shù)據(jù)庫
    for item in getInfo(pageInfo):
        insertSql = 'insert into bankUrl(銀行名稱,網(wǎng)址) value("{1}","{0}")'.format(item[0],item[1])
        cur.execute(insertSql)

完整代碼:

import re
import time
from urllib import request
from urllib.request import urlopen

import pymysql

def timeCounter(fun):
    def wrapper(*arg ,**kwargs):
        startTime = time.time()
        fun(*arg,**kwargs)
        endTime = time.time()
        print(fun.__name__+'運(yùn)行時(shí)間為%.2f'%(startTime-endTime))
    return wrapper

# 獲取頁面信息
def getPageInfo(url):
    pageInfo = urlopen(url)
    content = pageInfo.read().decode('utf-8')
    return content

# 保存頁面信息到文件
def saveInfo(data):
    with open('doc/pageContent','w+',encoding='utf-8') as f:
        f.write(data)

# 利用正則匹配獲取信息
def getInfo(data):
    pattern = r'<a href="(http.*?)".*?>\s+(.+?)\s+?</a>'
    info = re.findall(pattern ,data)
    return info

@timeCounter
def main():
    url = 'http://www.cbrc.gov.cn/chinese/jrjg/index.html'
    user_agent = "Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko Core/1.63.6788.400 QQBrowser/10.3.2864.400"
    reqObj = request.Request(url, headers={'User-Agent': user_agent})
    pageInfo = getPageInfo(reqObj)
    # saveInfo(pageInfo)
    conn = pymysql.connect(
        host='localhost',
        user='root',
        password='mysql',
        database='bankUrl',
        charset='utf8',
        autocommit=True,    # 如果插入數(shù)據(jù),, 是否自動(dòng)提交? 和conn.commit()功能一致。

    )
    cur = conn.cursor()
    # cur.execute('create database if not exists bankUrl;')
    cur.execute('drop table bankurl')
    creatTableSql = 'create table if not exists bankUrl(銀行名稱 varchar(20),網(wǎng)址 varchar(100))default charset=utf8;'
    cur.execute(creatTableSql)
    for item in getInfo(pageInfo):
        insertSql = 'insert into bankUrl(銀行名稱,網(wǎng)址) value("{1}","{0}")'.format(item[0],item[1])
        cur.execute(insertSql)

if __name__ == '__main__':
    main()

查詢結(jié)果

Python練習(xí)【爬取銀行網(wǎng)站信息】

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI