溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

如何使用pandas生成/讀取csv文件

發(fā)布時(shí)間:2021-07-10 16:00:43 來源:億速云 閱讀:549 作者:小新 欄目:開發(fā)技術(shù)

這篇文章給大家分享的是有關(guān)如何使用pandas生成/讀取csv文件的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過來看看吧。

前言

csv是我接觸的比較早的一種文件,比較好的是這種文件既能夠以電子表格的形式查看又能夠以文本的形式查看。

先引入pandas庫

import pandas as pd

方法一:

1、我構(gòu)造了一個(gè)cont_list,結(jié)構(gòu)為列表嵌套字典,字典是每一個(gè)樣本,類似于我們爬蟲爬下來的數(shù)據(jù)的結(jié)構(gòu)

2、利用pd.DataFrame方法先將數(shù)據(jù)轉(zhuǎn)換成一個(gè)二維結(jié)構(gòu)數(shù)據(jù),如下方打印的內(nèi)容所示,cloumns指定列表,列表必須是列表

3、to_csv方法可以直接保存csv文件,index=False表示csv文件不加行序號(hào)

如何使用pandas生成/讀取csv文件

保存csv結(jié)果

如何使用pandas生成/讀取csv文件

應(yīng)用到我們的爬蟲代碼,傳入的con_list就是[{},{},{}****]這樣的額數(shù)據(jù)結(jié)構(gòu),encoding="utf_8_sig",encoding="gb18030”,我這邊解決中文編碼問題

如何使用pandas生成/讀取csv文件

是不是很方便就,2行代碼即可搞定保存,是不是比上次講的方法簡單好多,其實(shí)很多方法,還有python的優(yōu)秀庫,都使python這門語言在數(shù)據(jù)分析領(lǐng)域有極大的優(yōu)勢

如何使用pandas生成/讀取csv文件

方法二:

流程:模擬登錄→獲取Html頁面→正則解析所有符合條件的行→逐一將符合條件的行的所有列存入到CSVData[]臨時(shí)變量中→寫入到CSV文件中

核心代碼:

####寫入csv文件中
 
with open(self.CsvFileName, 'wb') as csvfile:
 
spamwriter = csv.writer(csvfile, dialect='excel')
 
#設(shè)置標(biāo)題
 
spamwriter.writerow(["游戲賬號(hào)","用戶類型","游戲名稱","渠道","充值類型","充值金額","返利金額","單號(hào)","日期"])
 
#將CsvData中的數(shù)據(jù)循環(huán)寫入到CsvFileName文件中
 
for item in self.CsvData:
 
spamwriter.writerow(item)

完整代碼:

# coding=utf-8
 
import urllib
 
import urllib2
 
import cookielib
 
import re
 
import csv
 
import sys
 
 
class Pyw():
 
#初始化數(shù)據(jù)
 
def __init__(self):
 
#登錄的Url地址
 
self.LoginUrl="http://v.pyw.cn/login/check"
 
#所要獲取的Url地址
 
self.PageUrl="http://v.pyw.cn/Data/accountdetail/%s"
 
# 傳輸?shù)臄?shù)據(jù):用戶名、密碼、是否記住用戶名
 
self.PostData = urllib.urlencode({
 
"username": "15880xxxxxx",
 
"password": "a123456",
 
"remember": "1"
 
})
 
#第幾筆記錄
 
self.PageIndex=0;
 
#循環(huán)獲取共4頁內(nèi)容
 
self.PageTotal=1
 
#正則解析出tr
 
self.TrExp=re.compile("(?isu)<tr[^>]*>(.*?)</tr>")
 
#正則解析出td
 
self.TdExp = re.compile("(?isu)<td[^>]*>(.*?)</td>")
 
#創(chuàng)建cookie
 
self.cookie = cookielib.CookieJar()
 
#構(gòu)建opener
 
self.opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookie))
 
#解析頁面總頁數(shù)
 
self.Total=4
 
#####設(shè)置csv文件
 
self.CsvFileName="Pyw.csv"
 
#####存儲(chǔ)Csv數(shù)據(jù)
 
self.CsvData=[]
 
 
#解析網(wǎng)頁中的內(nèi)容
 
def GetPageItem(self,PageHtml):
 
#循環(huán)取出Table中的所有行
 
for row in self.TrExp.findall(PageHtml):
 
#取出當(dāng)前行的所有列
 
coloumn=self.TdExp.findall(row)
 
#判斷符合的記錄
 
if len(coloumn) == 9:
 
# print "游戲賬號(hào):%s" % coloumn[0].strip()
 
# print "用戶類型:%s" % coloumn[1].strip()
 
# print "游戲名稱:%s" % coloumn[2].strip()
 
# print "渠道:%s" % coloumn[3].strip()
 
# print "充值類型:%s" % coloumn[4].strip()
 
# print "充值金額:%s" % coloumn[5].strip().replace("¥", "")
 
# print "返利金額:%s" % coloumn[6].strip().replace("¥", "")
 
# print "單號(hào):%s" % coloumn[7].strip()
 
# print "日期:%s" % coloumn[8].strip()
 
#拼湊行數(shù)據(jù)
 
d=[coloumn[0].strip(),
 
coloumn[1].strip(),
 
coloumn[2].strip(),
 
coloumn[3].strip(),
 
coloumn[4].strip(),
 
coloumn[5].strip().replace("¥", ""),
 
coloumn[6].strip().replace("¥", ""),
 
coloumn[7].strip(),
 
coloumn[8].strip()]
 
self.CsvData.append(d)
 
 
#模擬登錄并獲取頁面數(shù)據(jù)
 
def GetPageHtml(self):
 
try:
 
#模擬登錄
 
request=urllib2.Request(url=self.LoginUrl,data=self.PostData)
 
ResultHtml=self.opener.open(request)
 
#開始執(zhí)行獲取頁面數(shù)據(jù)
 
while self.PageTotal<=self.Total:
 
#動(dòng)態(tài)拼湊所要解析的Url
 
m_PageUrl = self.PageUrl % self.PageTotal
 
#計(jì)算當(dāng)期第幾頁
 
self.PageTotal = self.PageTotal + 1
 
#獲取當(dāng)前解析頁面的所有內(nèi)容
 
ResultHtml=self.opener.open(m_PageUrl)
 
#解析網(wǎng)頁中的內(nèi)容
 
self.GetPageItem(ResultHtml.read())
 
 
####寫入Csv文件中
 
with open(self.CsvFileName, 'wb') as csvfile:
 
spamwriter = csv.writer(csvfile, dialect='excel')
 
#設(shè)置標(biāo)題
 
spamwriter.writerow(["游戲賬號(hào)","用戶類型","游戲名稱","渠道","充值類型","充值金額","返利金額","單號(hào)","日期"])
 
#將CsvData中的數(shù)據(jù)循環(huán)寫入到CsvFileName文件中
 
for item in self.CsvData:
 
spamwriter.writerow(item)
 
 
print "成功導(dǎo)出CSV文件!"
 
except Exception,e:
 
print "404 error!%s" % e
 
#實(shí)例化類
 
p=Pyw()
 
#執(zhí)行方法
 
p.GetPageHtml()

導(dǎo)出結(jié)果

如何使用pandas生成/讀取csv文件

讀取CSV

import pandas as pd

data = pd.read_table('地址', sep=",")['網(wǎng)址'].values

print(data[1])

感謝各位的閱讀!關(guān)于“如何使用pandas生成/讀取csv文件”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI