我是靠谱客的博主 昏睡鞋垫,最近开发中收集的这篇文章主要介绍HDFS数据导入Hive表报错,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1、报错:
Failed with exception java.io.IOException:java.lang.RuntimeException: hdfs://emr-header-1.cluster-212710:9000/warehouse/hdcdt/ods/ods_act_activity_info/dt=2020-12-10/part-m-00000 is not a Parquet file. expected magic number at tail [80, 65, 82, 49] but found [46, 51, 49, 10]

2、原因:
创建Hive表时指定了文件存储格式是parquet,但是导入的数据不是parquet格式。

3、解决:
从官网找到了唯一给的一种方式:
先创建一张临时的默认格式(TextFile)表,并将HDFS上的数据导入该表,之后再将将临时表的数据导入到parquet表。

SET hive.exec.compress.output=true;
INSERT OVERWRITE TABLE raw_sequence SELECT * FROM raw;

最后

以上就是昏睡鞋垫为你收集整理的HDFS数据导入Hive表报错的全部内容,希望文章能够帮你解决HDFS数据导入Hive表报错所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(42)

评论列表共有 0 条评论

立即
投稿
返回
顶部