我是靠谱客的博主 昏睡鞋垫,这篇文章主要介绍HDFS数据导入Hive表报错,现在分享给大家,希望可以做个参考。

1、报错:
Failed with exception java.io.IOException:java.lang.RuntimeException: hdfs://emr-header-1.cluster-212710:9000/warehouse/hdcdt/ods/ods_act_activity_info/dt=2020-12-10/part-m-00000 is not a Parquet file. expected magic number at tail [80, 65, 82, 49] but found [46, 51, 49, 10]

2、原因:
创建Hive表时指定了文件存储格式是parquet,但是导入的数据不是parquet格式。

3、解决:
从官网找到了唯一给的一种方式:
先创建一张临时的默认格式(TextFile)表,并将HDFS上的数据导入该表,之后再将将临时表的数据导入到parquet表。

复制代码
1
2
3
SET hive.exec.compress.output=true; INSERT OVERWRITE TABLE raw_sequence SELECT * FROM raw;

最后

以上就是昏睡鞋垫最近收集整理的关于HDFS数据导入Hive表报错的全部内容,更多相关HDFS数据导入Hive表报错内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(58)

评论列表共有 0 条评论

立即
投稿
返回
顶部