rpmdeb 2019-08-15 10:34 采纳率: 0%
浏览 624
已采纳

hive 里面不能split lzo的文件,这是怎么回事?

创建testlzo表

CREATE external TABLE `testlzo`(
  xxxx)
row format delimited
fields terminated by '|'
STORED AS INPUTFORMAT "com.hadoop.mapred.DeprecatedLzoTextInputFormat"
OUTPUTFORMAT "org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat"
LOCATION '/nginx/testlzo';

执行查询

select count(*) from testlzo;

没有建索引时

$ hadoop fs -du -s -h /nginx/testlzo/*
427.8 M  1.3 G  /nginx/testlzo/123.lzo

Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 1

1679356

建立索引

hadoop jar hadoop/share/hadoop/common/hadoop-lzo-0.4.20.jar  com.hadoop.compression.lzo.DistributedLzoIndexer  /nginx/testlzo/123.lzo

$ hadoop fs -du -s -h /nginx/testlzo/*
427.8 M  1.3 G  /nginx/testlzo/123.lzo
32.0 K  96.0 K  /nginx/testlzo/123.lzo.index

Hadoop job information for Stage-1: number of mappers: 2; number of reducers: 1
1679759

可以看到 并没有hive 并没有split lzo文件,并且还把index文件算进去了,这是怎么回事?

并且,使用stream方式,是可以split的

hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.4.5.jar wordcount   -Dmapreduce.job.inputformat.class=com.hadoop.mapreduce.LzoTextInputFormat /nginx/testlzo/123.lzo /tmp/2019081401
执行这句的时候,可以看到split 4 ,确实是可以分割的,但是hive为什么没有分割了? hive的版本是2.3.5 
  • 写回答

2条回答

  • rpmdeb 2019-08-15 12:51
    关注

    在进入hive shell后,SET hive.input.format=org.apache.hadoop.hive.ql.io.HiveInputFormat ; 解决了

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

悬赏问题

  • ¥15 用matlab 实现通信仿真
  • ¥15 按键修改电子时钟,C51单片机
  • ¥60 Java中实现如何实现张量类,并用于图像处理(不运用其他科学计算库和图像处理库))
  • ¥20 5037端口被adb自己占了
  • ¥15 python:excel数据写入多个对应word文档
  • ¥60 全一数分解素因子和素数循环节位数
  • ¥15 ffmpeg如何安装到虚拟环境
  • ¥188 寻找能做王者评分提取的
  • ¥15 matlab用simulink求解一个二阶微分方程,要求截图
  • ¥30 乘子法解约束最优化问题的matlab代码文件,最好有matlab代码文件