Michael_0426 2018-05-18 10:16 采纳率: 0%
浏览 5770
已结题

pyspark 逐行读取本地csv文件。

本人新手,第一次接触spark。

希望大哥们可以提供下代码让我学习一下。非常感谢。

 import pyspark
sc = pyspark.SparkContext()
sql = SQLContext(sc)

df = (sql.read
         .format("com.databricks.spark.csv")
         .option("header", "true")
         .load("FireData-Part2.csv"))
df.show()

逐行读取df的数据。一秒读一条。希望会的大哥指导一下。

  • 写回答

1条回答 默认 最新

  • devmiao 2018-05-18 15:51
    关注
    评论

报告相同问题?

悬赏问题

  • ¥15 r语言蛋白组学相关问题
  • ¥15 Python时间序列如何拟合疏系数模型
  • ¥15 求学软件的前人们指明方向🥺
  • ¥50 如何增强飞上天的树莓派的热点信号强度,以使得笔记本可以在地面实现远程桌面连接
  • ¥20 双层网络上信息-疾病传播
  • ¥50 paddlepaddle pinn
  • ¥20 idea运行测试代码报错问题
  • ¥15 网络监控:网络故障告警通知
  • ¥15 django项目运行报编码错误
  • ¥15 STM32驱动继电器