ubuntu16.04系统中已经安装hadoop2.7
。为安装spark,选择了版本spark-2.1.0-bin-hadoop2.7.tgz
,但安装结束后,看到相关安装文章指出以下内容,不知我这样安装会不会造成系统内hadoop版本冲突?
由于我们已经自己安装了Hadoop,所以,在“Choose a package type”后面需要选择“Pre-build with user-provided Hadoop [can use with most Hadoop distributions]”,因为这个选项的Spark可以应用于任意Hadoop版本,所以,就可以应用到我们已经安装的Hadoop版本。然后,点击“Download Spark”后面的“spark-1.6.2-bin-without-hadoop.tgz”下载即可。http://dblab.xmu.edu.cn/blog/931-2/