seagle01 2014-08-04 05:09 采纳率: 20%
浏览 2268

Hive 空间沾满导致的问题

在将mysql中的数据使用sqoop倒入到Hive中时,突然出现报了一个这样的错误
Exception in thread "main" java.lang.RuntimeException: Could not create temporary directory: /tmp/sqoop-hadoop/compile/db49351e236be8b1f51ee53f4a743551; check for a directory permissions issue on /tmp.
在命令行中敲入Hive命令也出现了同样的异常。
上网查了半天,无非解释是权限问题,本来用的好好的不可能出现权限问题,结果找来一位大侠,直接说是空间沾满了,清掉一些文件后,果然好了,看来Hive报错描述机制不是很好。
以前听说这个问题可以通过一些参数配置,来规避掉,让Hive在运行时几乎不会遇见这种问题,想问问各位大虾,该怎么设置。

  • 写回答

2条回答 默认 最新

  • 金牛IT 2017-09-01 02:43
    关注

    这个可能不是空间权限的问题,有可能是iNode用满了,我最近也遇到这个问题
    通过:df -i 可以查看目录下的iNode使用情况

    评论

报告相同问题?

悬赏问题

  • ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
  • ¥30 截图中的mathematics程序转换成matlab
  • ¥15 动力学代码报错,维度不匹配
  • ¥15 Power query添加列问题
  • ¥50 Kubernetes&Fission&Eleasticsearch
  • ¥15 報錯:Person is not mapped,如何解決?
  • ¥15 c++头文件不能识别CDialog
  • ¥15 Excel发现不可读取的内容
  • ¥15 关于#stm32#的问题:CANOpen的PDO同步传输问题
  • ¥20 yolov5自定义Prune报错,如何解决?