为啥遇到一个不懂的技术spark,查了百度,给了答案,感觉还是啥也不知道,明明工作中用到的技术就是这个,工作中就是直接登陆到对应服务上使用spark命令,parquetFile.take(150).foreach(println),但是还是感觉啥也没学到,都会用命令了,这是为什么?而且查了百度,看了解释也感觉一无所获,感觉对我使用没有太大帮助。我到底该怎么简单了入手看懂一个技术就行,不一定要精通
收起
从零开始认识 Spark Spark的知识点很多,决定分多P来慢慢讲🤣,比较关键的RDD算子其实已经写了大半,奈何内容还是太多了就不和这篇扯皮的放一起了。 spark是在Hadoop基础上的改进,是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用的并行计算… https://juejin.cn/post/6844904058612875277
报告相同问题?