zhenghailong888
2018-01-16 08:25大量单条数据使用spark效率高吗?
5比如 我有 1亿条 汉字句子,需要生成哈希码,但是这些句子不能组成list,只能单条一条一条的生成哈希码,这样使用spark,会提升效率吗?这种应用场景,应该怎么使用spark?
- 点赞
- 回答
- 收藏
- 复制链接分享
1条回答
为你推荐
- R studio 使用spark_connect(master = "local")出现未知问题
- r语言
- 1个回答
- eclipse写的spark,不打jar包,如何提交到spark集群?
- eclipse
- 自动提交
- 2个回答
- spark读取不了本地文件是怎么回事
- spark
- 2个回答
- spark-submit命令运行jar包报空指针,Java -jar命令可以运行。
- java
- spark
- jar
- 1个回答
- spark如何过滤掉变化时间
- scala
- tomcat
- 大数据
- spark
- 1个回答
换一换