Michael_0426 2018-05-18 10:16 采纳率: 0%
浏览 5770
已结题

pyspark 逐行读取本地csv文件。

本人新手,第一次接触spark。

希望大哥们可以提供下代码让我学习一下。非常感谢。

 import pyspark
sc = pyspark.SparkContext()
sql = SQLContext(sc)

df = (sql.read
         .format("com.databricks.spark.csv")
         .option("header", "true")
         .load("FireData-Part2.csv"))
df.show()

逐行读取df的数据。一秒读一条。希望会的大哥指导一下。

  • 写回答

1条回答

  • devmiao 2018-05-18 15:51
    关注
    评论

报告相同问题?

悬赏问题

  • ¥15 运筹学中在线排序的时间在线排序的在线LPT算法
  • ¥30 求一段fortran代码用IVF编译运行的结果
  • ¥15 深度学习根据CNN网络模型,搭建BP模型并训练MNIST数据集
  • ¥15 lammps拉伸应力应变曲线分析
  • ¥15 C++ 头文件/宏冲突问题解决
  • ¥15 用comsol模拟大气湍流通过底部加热(温度不同)的腔体
  • ¥50 安卓adb backup备份子用户应用数据失败
  • ¥20 有人能用聚类分析帮我分析一下文本内容嘛
  • ¥15 请问Lammps做复合材料拉伸模拟,应力应变曲线问题
  • ¥30 python代码,帮调试,帮帮忙吧