rpmdeb 2019-08-15 10:34 采纳率: 0%
浏览 624
已采纳

hive 里面不能split lzo的文件,这是怎么回事?

创建testlzo表

CREATE external TABLE `testlzo`(
  xxxx)
row format delimited
fields terminated by '|'
STORED AS INPUTFORMAT "com.hadoop.mapred.DeprecatedLzoTextInputFormat"
OUTPUTFORMAT "org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat"
LOCATION '/nginx/testlzo';

执行查询

select count(*) from testlzo;

没有建索引时

$ hadoop fs -du -s -h /nginx/testlzo/*
427.8 M  1.3 G  /nginx/testlzo/123.lzo

Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 1

1679356

建立索引

hadoop jar hadoop/share/hadoop/common/hadoop-lzo-0.4.20.jar  com.hadoop.compression.lzo.DistributedLzoIndexer  /nginx/testlzo/123.lzo

$ hadoop fs -du -s -h /nginx/testlzo/*
427.8 M  1.3 G  /nginx/testlzo/123.lzo
32.0 K  96.0 K  /nginx/testlzo/123.lzo.index

Hadoop job information for Stage-1: number of mappers: 2; number of reducers: 1
1679759

可以看到 并没有hive 并没有split lzo文件,并且还把index文件算进去了,这是怎么回事?

并且,使用stream方式,是可以split的

hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.4.5.jar wordcount   -Dmapreduce.job.inputformat.class=com.hadoop.mapreduce.LzoTextInputFormat /nginx/testlzo/123.lzo /tmp/2019081401
执行这句的时候,可以看到split 4 ,确实是可以分割的,但是hive为什么没有分割了? hive的版本是2.3.5 
  • 写回答

2条回答 默认 最新

  • rpmdeb 2019-08-15 12:51
    关注

    在进入hive shell后,SET hive.input.format=org.apache.hadoop.hive.ql.io.HiveInputFormat ; 解决了

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

悬赏问题

  • ¥15 如何在scanpy上做差异基因和通路富集?
  • ¥20 关于#硬件工程#的问题,请各位专家解答!
  • ¥15 关于#matlab#的问题:期望的系统闭环传递函数为G(s)=wn^2/s^2+2¢wn+wn^2阻尼系数¢=0.707,使系统具有较小的超调量
  • ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
  • ¥30 截图中的mathematics程序转换成matlab
  • ¥15 动力学代码报错,维度不匹配
  • ¥15 Power query添加列问题
  • ¥50 Kubernetes&Fission&Eleasticsearch
  • ¥15 報錯:Person is not mapped,如何解決?
  • ¥15 c++头文件不能识别CDialog