热爱Coding 2015-03-03 07:26 采纳率: 100%
浏览 2569
已采纳

spark1.2里的一小段scala代码看不懂

 def map [ U :  ClassTag ] ( f : T => U): RDD[U] = {
    val cleanF = sc.clean(f)
    new MapPartitionsRDD [ U ,  T ] ( this ,  ( context ,  pid ,  iter )  => iter.map(cleanF))
  }

RDD.scala里的这个方法里的context, pid, iter不知道从哪来的啊??

https://github.com/apache/spark/blob/master/core/src/main/scala/org/apache/spark/rdd/RDD.scala

显示有问题,请看http://bbs.csdn.net/topics/390991434

  • 写回答

5条回答 默认 最新

  • threenewbee 2015-03-03 07:36
    关注

    context, pid, iter是Lambda表达式的参数,这相当于一个函数。只是你定义了函数让对方反过来调用。
    所以这些名字可以随便起。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(4条)

报告相同问题?

问题事件

  • 已采纳回答 8月17日

悬赏问题

  • ¥15 微信会员卡接入微信支付商户号收款
  • ¥15 如何获取烟草零售终端数据
  • ¥15 数学建模招标中位数问题
  • ¥15 phython路径名过长报错 不知道什么问题
  • ¥15 深度学习中模型转换该怎么实现
  • ¥15 HLs设计手写数字识别程序编译通不过
  • ¥15 Stata外部命令安装问题求帮助!
  • ¥15 从键盘随机输入A-H中的一串字符串,用七段数码管方法进行绘制。提交代码及运行截图。
  • ¥15 TYPCE母转母,插入认方向
  • ¥15 如何用python向钉钉机器人发送可以放大的图片?