SixA1024 2021-04-27 15:58 采纳率: 100%
浏览 23
已采纳

spark整合每天的发电量

有人知道怎么用spark streaming处理一个数据,原始数据是每隔3分钟的时间戳和发电量,要把它整合成一天的发电量,总共有30多天的

 

  • 写回答

4条回答 默认 最新

  • 关注
    import time
    
    data = [
        [1602232434000,2439],
        [1602232605000,2453],
        [1602232686000,2458],
        [1602262818000,2468],
        [1602262905000,2477],
    ]
    d = {}
    for t,v in data:
        timeArray = time.localtime(t//1000)
        otherStyleTime = time.strftime("%Y-%m-%d", timeArray)
        d[otherStyleTime] = d.get(otherStyleTime,0) + v
    print(d)
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(3条)

报告相同问题?

悬赏问题

  • ¥20 数学建模,尽量用matlab回答,论文格式
  • ¥15 昨天挂载了一下u盘,然后拔了
  • ¥30 win from 窗口最大最小化,控件放大缩小,闪烁问题
  • ¥20 易康econgnition精度验证
  • ¥15 msix packaging tool打包问题
  • ¥28 微信小程序开发页面布局没问题,真机调试的时候页面布局就乱了
  • ¥15 python的qt5界面
  • ¥15 无线电能传输系统MATLAB仿真问题
  • ¥50 如何用脚本实现输入法的热键设置
  • ¥20 我想使用一些网络协议或者部分协议也行,主要想实现类似于traceroute的一定步长内的路由拓扑功能