溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫

發(fā)布時(shí)間:2020-08-11 19:28:46 來源:網(wǎng)絡(luò) 閱讀:31759 作者:M四月天 欄目:數(shù)據(jù)庫


爬取小說網(wǎng)站的小說,并保存到數(shù)據(jù)庫


第一步:先獲取小說內(nèi)容

#!/usr/bin/python
# -*- coding: UTF-8 -*-

import urllib2,re

domain = 'http://www.quanshu.net'
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"
}

def getTypeList(pn=1): #獲取分類列表的函數(shù)
    req = urllib2.Request('http://www.quanshu.net/map/%s.html' % pn) #實(shí)例將要請求的對象
    req.headers = headers  #替換所有頭信息
    #req.add_header() #添加單個(gè)頭信息
    res = urllib2.urlopen(req)   #開始請求
    html = res.read().decode('gbk')  #decode解碼,解碼成Unicode
    reg = r'<a href="(/book/.*?)" target="_blank">(.*?)</a>'
    reg = re.compile(reg) #增加匹配效率  正則匹配返回的類型為List

    return re.findall(reg,html)

def getNovelList(url):  #獲取章節(jié)列表函數(shù)
    req = urllib2.Request(domain + url)
    req.headers = headers
    res = urllib2.urlopen(req)
    html = res.read().decode('gbk')
    reg = r'<li><a href="(.*?)" title=".*?">(.*?)</a></li>'
    reg = re.compile(reg)
    return re.findall(reg,html)

def getNovelContent(url):  #獲取章節(jié)內(nèi)容
    req = urllib2.Request(domain + url)
    req.headers = headers
    res = urllib2.urlopen(req)
    html = res.read().decode('gbk')
    reg = r'style5\(\);</script>(.*?)<script type="text/javascript">style6\(\)'
    return re.findall(reg,html)[0]


if __name__ == '__main__':
    for type in range(1,10):
        for url,title in getTypeList(type):
            for zurl,ztitle in getNovelList(url):
                print u'正則爬取----%s' %ztitle
                content = getNovelContent(url.replace('index.html',zurl))
                print content
            break
        break


執(zhí)行后結(jié)果如下:

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫




第二步:存儲到數(shù)據(jù)庫

1、設(shè)計(jì)數(shù)據(jù)庫

1.1 新建庫:novel

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫


1.2 設(shè)計(jì)表:novel

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫


1.3 設(shè)計(jì)表:chapter

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫


并設(shè)置外鍵

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫




2、編寫腳本

#!/usr/bin/python
# -*- coding: UTF-8 -*-

import urllib2,re
import MySQLdb

class Sql(object):
    conn = MySQLdb.connect(host='192.168.19.213',port=3306,user='root',passwd='Admin123',db='novel',charset='utf8')
    def addnovels(self,sort,novelname):
        cur = self.conn.cursor()
        cur.execute("insert into novel(sort,novelname) values(%s , '%s')" %(sort,novelname))
        lastrowid = cur.lastrowid
        cur.close()
        self.conn.commit()
        return lastrowid
    def addchapters(self,novelid,chaptername,content):
        cur = self.conn.cursor()
        cur.execute("insert into chapter(novelid,chaptername,content) values(%s , '%s' ,'%s')" %(novelid,chaptername,content))
        cur.close()
        self.conn.commit()


domain = 'http://www.quanshu.net'
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"
}

def getTypeList(pn=1): #獲取分類列表的函數(shù)
    req = urllib2.Request('http://www.quanshu.net/map/%s.html' % pn) #實(shí)例將要請求的對象
    req.headers = headers  #替換所有頭信息
    #req.add_header() #添加單個(gè)頭信息
    res = urllib2.urlopen(req)   #開始請求
    html = res.read().decode('gbk')  #decode解碼,解碼成Unicode
    reg = r'<a href="(/book/.*?)" target="_blank">(.*?)</a>'
    reg = re.compile(reg) #增加匹配效率  正則匹配返回的類型為List

    return re.findall(reg,html)

def getNovelList(url):  #獲取章節(jié)列表函數(shù)
    req = urllib2.Request(domain + url)
    req.headers = headers
    res = urllib2.urlopen(req)
    html = res.read().decode('gbk')
    reg = r'<li><a href="(.*?)" title=".*?">(.*?)</a></li>'
    reg = re.compile(reg)
    return re.findall(reg,html)

def getNovelContent(url):  #獲取章節(jié)內(nèi)容
    req = urllib2.Request(domain + url)
    req.headers = headers
    res = urllib2.urlopen(req)
    html = res.read().decode('gbk')
    reg = r'style5\(\);</script>(.*?)<script type="text/javascript">style6\(\)'
    return re.findall(reg,html)[0]

mysql = Sql()
if __name__ == '__main__':
    for sort in range(1,10):
        for url,title in getTypeList(sort):
            lastrowid = mysql.addnovels(sort, title)
            for zurl,ztitle in getNovelList(url):
                print u'正則爬取----%s' %ztitle
                content = getNovelContent(url.replace('index.html',zurl))
                print u'正在存儲----%s' %ztitle
                mysql.addchapters(lastrowid,ztitle,content)


3、執(zhí)行腳本

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫


4、查看數(shù)據(jù)庫

Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫


Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫

可以看到已經(jīng)存儲成功了。




報(bào)錯(cuò):

_mysql_exceptions.OperationalError: (1364, "Field 'novelid' doesn't have a default value")


解決:執(zhí)行sql語句

SELECT @@GLOBAL.sql_mode;

SET @@GLOBAL.sql_mode="NO_ENGINE_SUBSTITUTION";


Python爬蟲:爬取小說并存儲到數(shù)據(jù)庫


報(bào)錯(cuò)參考:http://blog.sina.com.cn/s/blog_6d2b3e4901011j9w.html





向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI