您好,登錄后才能下訂單哦!
代碼如下,步驟流程在代碼注釋中可見:
# -*- coding: utf-8 -*- import pandas as pd from pyspark.sql import SparkSession from pyspark.sql import SQLContext from pyspark import SparkContext #初始化數(shù)據(jù) #初始化pandas DataFrame df = pd.DataFrame([[1, 2, 3], [4, 5, 6]], index=['row1', 'row2'], columns=['c1', 'c2', 'c3']) #打印數(shù)據(jù) print df #初始化spark DataFrame sc = SparkContext() if __name__ == "__main__": spark = SparkSession\ .builder\ .appName("testDataFrame")\ .getOrCreate() sentenceData = spark.createDataFrame([ (0.0, "I like Spark"), (1.0, "Pandas is useful"), (2.0, "They are coded by Python ") ], ["label", "sentence"]) #顯示數(shù)據(jù) sentenceData.select("label").show() #spark.DataFrame 轉(zhuǎn)換成 pandas.DataFrame sqlContest = SQLContext(sc) spark_df = sqlContest.createDataFrame(df) #顯示數(shù)據(jù) spark_df.select("c1").show() # pandas.DataFrame 轉(zhuǎn)換成 spark.DataFrame pandas_df = sentenceData.toPandas() #打印數(shù)據(jù) print pandas_df
程序結(jié)果:
以上這篇pyspark.sql.DataFrame與pandas.DataFrame之間的相互轉(zhuǎn)換實例就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持億速云。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。