概述
1、报错:
Failed with exception java.io.IOException:java.lang.RuntimeException: hdfs://emr-header-1.cluster-212710:9000/warehouse/hdcdt/ods/ods_act_activity_info/dt=2020-12-10/part-m-00000 is not a Parquet file. expected magic number at tail [80, 65, 82, 49] but found [46, 51, 49, 10]
2、原因:
创建Hive表时指定了文件存储格式是parquet,但是导入的数据不是parquet格式。
3、解决:
从官网找到了唯一给的一种方式:
先创建一张临时的默认格式(TextFile)表,并将HDFS上的数据导入该表,之后再将将临时表的数据导入到parquet表。
SET hive.exec.compress.output=true;
INSERT OVERWRITE TABLE raw_sequence SELECT * FROM raw;
最后
以上就是昏睡鞋垫为你收集整理的HDFS数据导入Hive表报错的全部内容,希望文章能够帮你解决HDFS数据导入Hive表报错所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复