溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

如何基于Python實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖

發(fā)布時(shí)間:2022-03-23 14:04:05 來(lái)源:億速云 閱讀:260 作者:小新 欄目:開發(fā)技術(shù)

這篇文章主要為大家展示了“如何基于Python實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“如何基于Python實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖”這篇文章吧。

代碼

下面直接發(fā)一下樣例代碼。

#!/user/bin/env python
# coding=utf-8
"""
@project : csdn
@author  : 劍客阿良_ALiang
@file   : draw_pic.py
@ide    : PyCharm
@time   : 2022-03-23 09:38:28
"""
import pandas as pd
from matplotlib import pyplot as plt
 
_dates = ['2022-03-22 16:45:08', '2022-03-22 16:46:08', '2022-03-22 16:47:08', '2022-03-22 16:48:08',
          '2022-03-22 16:49:08', '2022-03-22 16:50:08', '2022-03-22 16:51:08', '2022-03-22 16:52:08',
          '2022-03-22 16:53:08', '2022-03-22 16:54:08']
_data1 = [1, 2, 4, 6, 3, 2, 5, 7, 8, 0]
_data2 = [0, 9, 8, 2, 1, 0, 6, 5, 2, 1]
 
di = pd.DatetimeIndex(_dates,
                      dtype='datetime64[ns]', freq=None)
 
pd.DataFrame({'data1': _data1},
             index=di).plot.line()  # 圖形橫坐標(biāo)默認(rèn)為數(shù)據(jù)索引index。
#
plt.savefig(r'data/p1.png', dpi=200)
plt.show()  # 顯示當(dāng)前正在編譯的圖像
 
pd.DataFrame({'data1': _data1, 'data2': _data2},
             index=di).plot.line()  # 圖形橫坐標(biāo)默認(rèn)為數(shù)據(jù)索引index。
#
plt.savefig(r'data/p2.png', dpi=200)
plt.show()  # 顯示當(dāng)前正在編譯的圖像

代碼說(shuō)明

1、x軸的時(shí)間列表:_dates,準(zhǔn)備了兩組列表數(shù)據(jù),需要和日期列表數(shù)量對(duì)應(yīng)。

2、制作了兩幅圖,第二幅圖主要是兩條線生成在一張圖上。

驗(yàn)證效果

如何基于Python實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖

如何基于Python實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖

以上是“如何基于Python實(shí)現(xiàn)將列表數(shù)據(jù)生成折線圖”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI