Hudi(6):Hudi集成Spark之spark-shell 方式0. 相关文章链接1. 启动 spark-shell2. 插入数据3. 查询数据4. 更新数据5. 增量查询6. 指定时间点查询7. 删除数据8. 覆盖数据
我们希望类似hive的 "insert overwrite "操作,以忽略现有数据,只用提供的新数据创建一个提交。注意:该表有三级分区(区域/国家/城市),在0.9.0版本以前的hudi,在load中的路径需要按照分区目录拼接"*",如:load(basePath + "/*/*/*/*"),当前版本不需要。查询特定时间点的数据,可以将endTime指向特定时间,beginTime指向000(表示最早提交时间)新增数据,生成一些数据,将