在将mysql中的数据使用sqoop倒入到Hive中时,突然出现报了一个这样的错误
Exception in thread "main" java.lang.RuntimeException: Could not create temporary directory: /tmp/sqoop-hadoop/compile/db49351e236be8b1f51ee53f4a743551; check for a directory permissions issue on /tmp.
在命令行中敲入Hive命令也出现了同样的异常。
上网查了半天,无非解释是权限问题,本来用的好好的不可能出现权限问题,结果找来一位大侠,直接说是空间沾满了,清掉一些文件后,果然好了,看来Hive报错描述机制不是很好。
以前听说这个问题可以通过一些参数配置,来规避掉,让Hive在运行时几乎不会遇见这种问题,想问问各位大虾,该怎么设置。
Hive 空间沾满导致的问题
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答
- 金牛IT 2017-09-01 02:43关注
这个可能不是空间权限的问题,有可能是iNode用满了,我最近也遇到这个问题
通过:df -i 可以查看目录下的iNode使用情况解决 无用评论 打赏 举报
悬赏问题
- ¥15 请教一下各位,为什么我这个没有实现模拟点击
- ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
- ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
- ¥20 有关区间dp的问题求解
- ¥15 多电路系统共用电源的串扰问题
- ¥15 slam rangenet++配置
- ¥15 有没有研究水声通信方面的帮我改俩matlab代码
- ¥15 ubuntu子系统密码忘记
- ¥15 保护模式-系统加载-段寄存器
- ¥15 电脑桌面设定一个区域禁止鼠标操作