1、报错:
Failed with exception java.io.IOException:java.lang.RuntimeException: hdfs://emr-header-1.cluster-212710:9000/warehouse/hdcdt/ods/ods_act_activity_info/dt=2020-12-10/part-m-00000 is not a Parquet file. expected magic number at tail [80, 65, 82, 49] but found [46, 51, 49, 10]
2、原因:
创建Hive表时指定了文件存储格式是parquet,但是导入的数据不是parquet格式。
3、解决:
从官网找到了唯一给的一种方式:
先创建一张临时的默认格式(TextFile)表,并将HDFS上的数据导入该表,之后再将将临时表的数据导入到parquet表。
复制代码
1
2
3SET hive.exec.compress.output=true; INSERT OVERWRITE TABLE raw_sequence SELECT * FROM raw;
最后
以上就是昏睡鞋垫最近收集整理的关于HDFS数据导入Hive表报错的全部内容,更多相关HDFS数据导入Hive表报错内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复