每次重启hadoop和hive后,启动hivesever2时会报错:
by: java.lang.RuntimeException: The dir: /tmp/hive on HDFS should be writable. Current permissions are: rwx------
进入网页端发现所有文件的组都变成了superuser,更改了用户和权限以后可以重新启动。
可是文件太多了,不能每次都这样改啊
这是是咋回事呀?
每次重启hadoop和hive后,启动hivesever2时会报错:
by: java.lang.RuntimeException: The dir: /tmp/hive on HDFS should be writable. Current permissions are: rwx------
进入网页端发现所有文件的组都变成了superuser,更改了用户和权限以后可以重新启动。
可是文件太多了,不能每次都这样改啊
这是是咋回事呀?
报错要求在hdfs上用户应该具备写权限,而从报错可以看出只有所有者具有写权限,所有组合其他用户不具备。
使用hadoop fs hadoop fs -chmod -R dir修改目录权限,使其他用户也具备本目录的写权限
hive启动出现权限错误 /tmp/hive on HDFS should be writable._bear-CSDN博客
启动hive时出现Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable.Current permissions are: rwxr-xr-x
https://blog.csdn.net/u014432433/article/details/51226582