您好,登錄后才能下訂單哦!
這篇文章主要講解了“分布式爬蟲怎么處理Redis里的數(shù)據(jù)”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“分布式爬蟲怎么處理Redis里的數(shù)據(jù)”吧!
存入MongoDB
1.啟動(dòng)MongoDB數(shù)據(jù)庫:sudo mongod
2.執(zhí)行下面程序:py2 process_youyuan_mongodb.py
# process_youyuan_mongodb.py # -*- coding: utf-8 -*- import json import redis import pymongo def main(): # 指定Redis數(shù)據(jù)庫信息 rediscli = redis.StrictRedis(host='192.168.199.108', port=6379, db=0) # 指定MongoDB數(shù)據(jù)庫信息 mongocli = pymongo.MongoClient(host='localhost', port=27017) # 創(chuàng)建數(shù)據(jù)庫名 db = mongocli['youyuan'] # 創(chuàng)建表名 sheet = db['beijing_18_25'] while True: # FIFO模式為 blpop,LIFO模式為 brpop,獲取鍵值 source, data = rediscli.blpop(["youyuan:items"]) item = json.loads(data) sheet.insert(item) try: print u"Processing: %(name)s <%(link)s>" % item except KeyError: print u"Error procesing: %r" % item if __name__ == '__main__': main()
存入 MySQL
1.啟動(dòng)mysql:mysql.server start(更平臺(tái)不一樣)
2.登錄到root用戶:mysql -uroot -p
3.創(chuàng)建數(shù)據(jù)庫youyuan:create database youyuan;
4.切換到指定數(shù)據(jù)庫:use youyuan
5.創(chuàng)建表beijing_18_25以及所有字段的列名和數(shù)據(jù)類型。
6.執(zhí)行下面程序:py2 process_youyuan_mysql.py
#process_youyuan_mysql.py # -*- coding: utf-8 -*- import json import redis import MySQLdb def main(): # 指定redis數(shù)據(jù)庫信息 rediscli = redis.StrictRedis(host='192.168.199.108', port = 6379, db = 0) # 指定mysql數(shù)據(jù)庫 mysqlcli = MySQLdb.connect(host='127.0.0.1', user='power', passwd='xxxxxxx', db = 'youyuan', port=3306, use_unicode=True) while True: # FIFO模式為 blpop,LIFO模式為 brpop,獲取鍵值 source, data = rediscli.blpop(["youyuan:items"]) item = json.loads(data) try: # 使用cursor()方法獲取操作游標(biāo) cur = mysqlcli.cursor() # 使用execute方法執(zhí)行SQL INSERT語句 cur.execute("INSERT INTO beijing_18_25 (username, crawled, age, spider, header_url, source, pic_urls, monologue, source_url) VALUES (%s, %s, %s, %s, %s, %s, %s, %s, %s )", [item['username'], item['crawled'], item['age'], item['spider'], item['header_url'], item['source'], item['pic_urls'], item['monologue'], item['source_url']]) # 提交sql事務(wù) mysqlcli.commit() #關(guān)閉本次操作 cur.close() print "inserted %s" % item['source_url'] except MySQLdb.Error,e: print "Mysql Error %d: %s" % (e.args[0], e.args[1]) if __name__ == '__main__': main()
感謝各位的閱讀,以上就是“分布式爬蟲怎么處理Redis里的數(shù)據(jù)”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對(duì)分布式爬蟲怎么處理Redis里的數(shù)據(jù)這一問題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是億速云,小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。