在将mysql中的数据使用sqoop倒入到Hive中时,突然出现报了一个这样的错误
Exception in thread "main" java.lang.RuntimeException: Could not create temporary directory: /tmp/sqoop-hadoop/compile/db49351e236be8b1f51ee53f4a743551; check for a directory permissions issue on /tmp.
在命令行中敲入Hive命令也出现了同样的异常。
上网查了半天,无非解释是权限问题,本来用的好好的不可能出现权限问题,结果找来一位大侠,直接说是空间沾满了,清掉一些文件后,果然好了,看来Hive报错描述机制不是很好。
以前听说这个问题可以通过一些参数配置,来规避掉,让Hive在运行时几乎不会遇见这种问题,想问问各位大虾,该怎么设置。
Hive 空间沾满导致的问题
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答 默认 最新
- 金牛IT 2017-09-01 02:43关注
这个可能不是空间权限的问题,有可能是iNode用满了,我最近也遇到这个问题
通过:df -i 可以查看目录下的iNode使用情况解决 无用评论 打赏 举报
悬赏问题
- ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
- ¥30 截图中的mathematics程序转换成matlab
- ¥15 动力学代码报错,维度不匹配
- ¥15 Power query添加列问题
- ¥50 Kubernetes&Fission&Eleasticsearch
- ¥15 報錯:Person is not mapped,如何解決?
- ¥15 c++头文件不能识别CDialog
- ¥15 Excel发现不可读取的内容
- ¥15 关于#stm32#的问题:CANOpen的PDO同步传输问题
- ¥20 yolov5自定义Prune报错,如何解决?