我有一个Spark DataFrame(使用PySpark 1.5.1),想添加一个新列。
我已经尝试了以下方法,但没有成功:
type(randomed_hours) # => list
# Create in Python and transform to RDD
new_col = pd.DataFrame(randomed_hours, columns=['new_col'])
spark_new_col = sqlContext.createDataFrame(new_col)
my_df_spark.withColumn("hours", spark_new_col["new_col"])
使用此命令也出错:
my_df_spark.withColumn("hours", sc.parallelize(randomed_hours))
那么,如何使用PySpark将新列(基于Python向量)添加到现有DataFrame中?
宝慕林4294392
相关分类