Michael_0426 2018-05-18 10:16 采纳率: 0%
浏览 5769
已结题

pyspark 逐行读取本地csv文件。

本人新手,第一次接触spark。

希望大哥们可以提供下代码让我学习一下。非常感谢。

 import pyspark
sc = pyspark.SparkContext()
sql = SQLContext(sc)

df = (sql.read
         .format("com.databricks.spark.csv")
         .option("header", "true")
         .load("FireData-Part2.csv"))
df.show()

逐行读取df的数据。一秒读一条。希望会的大哥指导一下。

  • 写回答

1条回答 默认 最新

  • devmiao 2018-05-18 15:51
    关注
    评论

报告相同问题?

悬赏问题

  • ¥15 高德地图点聚合中Marker的位置无法实时更新
  • ¥15 DIFY API Endpoint 问题。
  • ¥20 sub地址DHCP问题
  • ¥15 delta降尺度计算的一些细节,有偿
  • ¥15 Arduino红外遥控代码有问题
  • ¥15 数值计算离散正交多项式
  • ¥30 数值计算均差系数编程
  • ¥15 redis-full-check比较 两个集群的数据出错
  • ¥15 Matlab编程问题
  • ¥15 训练的多模态特征融合模型准确度很低怎么办