seagle01 2014-08-04 05:09 采纳率: 20%
浏览 2268

Hive 空间沾满导致的问题

在将mysql中的数据使用sqoop倒入到Hive中时,突然出现报了一个这样的错误
Exception in thread "main" java.lang.RuntimeException: Could not create temporary directory: /tmp/sqoop-hadoop/compile/db49351e236be8b1f51ee53f4a743551; check for a directory permissions issue on /tmp.
在命令行中敲入Hive命令也出现了同样的异常。
上网查了半天,无非解释是权限问题,本来用的好好的不可能出现权限问题,结果找来一位大侠,直接说是空间沾满了,清掉一些文件后,果然好了,看来Hive报错描述机制不是很好。
以前听说这个问题可以通过一些参数配置,来规避掉,让Hive在运行时几乎不会遇见这种问题,想问问各位大虾,该怎么设置。

  • 写回答

2条回答

  • 金牛IT 2017-09-01 02:43
    关注

    这个可能不是空间权限的问题,有可能是iNode用满了,我最近也遇到这个问题
    通过:df -i 可以查看目录下的iNode使用情况

    评论

报告相同问题?

悬赏问题

  • ¥30 深度学习,前后端连接
  • ¥15 孟德尔随机化结果不一致
  • ¥15 apm2.8飞控罗盘bad health,加速度计校准失败
  • ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
  • ¥15 关于#hadoop#的问题
  • ¥15 (标签-Python|关键词-socket)
  • ¥15 keil里为什么main.c定义的函数在it.c调用不了
  • ¥50 切换TabTip键盘的输入法