问题遇到的现象和发生背景
在IDEA中运行Spark打印如下警告
22/04/29 10:35:06 WARN Utils: Your hostname, wanglongtao-OptiPlex-3070 resolves to a loopback address: 127.0.1.1; using 10.10.10.105 instead (on interface enp1s0)
22/04/29 10:35:06 WARN Utils: Set SPARK_LOCAL_IP if you need to bind to another address
我的解答思路和尝试过的方法
其实在运行 spark-shell
时候也有该警告,修改了conf/spark-env.sh
中SPARK_LOCAL_IP
即可。
但IDEA
中的SPARK_LOCAL_IP
应该如何设置?