一、数据导入
1.语法
1
2
3
4
5
6
7
8
9hive> load data [local] inpath '/opt/module/datas/student.txt' overwrite | into table student [partition (partcol1=val1,…)]; (1)load data:表示加载数据 (2)local:表示从本地加载数据到hive表;否则从HDFS加载数据到hive表 (3)inpath:表示加载数据的路径 (4)overwrite:表示覆盖表中已有数据,否则表示追加 (5)into table:表示加载到哪张表 (6)student:表示具体的表 (7)partition:表示上传到指定分区
2、实操案例
2.1 创建一张表
hive (default)> create table student(id string, name string) row format delimited fields terminated by ‘t’;
2.2 加载本地文件到hive
hive (default)> load data local inpath ‘/opt/module/datas/student.txt’ into table default.student;
2.3 加载HDFS文件到hive中
1
2上传文件到HDFS
hive (default)> dfs -put /opt/module/datas/student.txt /user/root/hive;
加载HDFS上数据
hive (default)> load data inpath ‘/user//hive/student.txt’ into table default.student;
2.4 加载数据覆盖表中已有的数据
上传文件到HDFS
hive (default)> dfs -put /opt/module/datas/student.txt /user/root/hive;
加载数据覆盖表中已有的数据
hive (default)> load data inpath ‘/user/root/hive/student.txt’ overwrite into table default.student;
3、通过查询语句向表中插入数据(Insert)
3.1 创建一张分区表
hive (default)> create table student(id int, name string) partitioned by (month string) row format delimited fields terminated by ‘t’;
3.2 基本插入数据
hive (default)> insert into table student partition(month=‘201709’) values(1,‘wangwu’);
3.3 基本模式插入(根据单张表查询结果)
hive (default)> insert overwrite table student partition(month=‘201708’)
select id, name from student where month=‘201709’;
3.4 多插入模式(根据多张表查询结果)
hive (default)> from student
insert overwrite table student partition(month=‘201707’)
select id, name where month=‘201709’
insert overwrite table student partition(month=‘201706’)
select id, name where month=‘201709’;
4、查询语句中创建表并加载数据(As Select)
1
2create table if not exists student3 as select id, name from student;
5、创建表时通过Location指定加载数据路径
1
2
3
4
5
6
7
8
9
10
11
12
13
14
151.创建表,并指定在hdfs上的位置 hive (default)> create table if not exists student5( id int, name string ) row format delimited fields terminated by 't' location '/user/hive/warehouse/student5'; 2.上传数据到hdfs上 hive (default)> dfs -put /opt/module/datas/student.txt /user/hive/warehouse/student5; 3.查询数据 hive (default)> select * from student5;
6、Import数据到指定Hive表中
注意:先用export导出后,再将数据导入。
1
2
3
4
5
6
7
8
9
101、导出 (defahiveult)> export table default.student to '/user/hive/warehouse/export/student'; 2、 导入-导入时不能是已经存在的表,不然抱Table exists and contains data files 异常 hive (default)> import table student2 partition(month='201709') from '/user/hive/warehouse/export/student';
export/import导入导出分区表:
https://blog.csdn.net/weixin_33816611/article/details/91963486
二、数据导入
1、 Insert导出
1
2
3
4
5
6
7
8
9
10
111.将查询的结果导出到本地 hive (default)> insert overwrite local directory '/opt/module/datas/export/student' select * from student; 2.将查询的结果格式化导出到本地 hive(default)>insert overwrite local directory '/opt/module/datas/export/student1' ROW FORMAT DELIMITED FIELDS TERMINATED BY 't' select * from student; 3.将查询的结果导出到HDFS上(没有local) hive (default)> insert overwrite directory '/user/atguigu/student2' ROW FORMAT DELIMITED FIELDS TERMINATED BY 't' select * from student;
2、 Hadoop命令导出到本地
1
2
3hive (default)> dfs -get /user/hive/warehouse/student/month=201709/000000_0 /opt/module/datas/export/student3.txt;
3、 Hive Shell 命令导出
1
2
3
4基本语法:(hive -f/-e 执行语句或者脚本 > file) [atguigu@hadoop102 hive]$ bin/hive -e 'select * from default.student;' > /opt/module/datas/export/student4.txt;
4、 Export导出到HDFS上
1
2
3(defahiveult)> export table default.student to '/user/hive/warehouse/export/student';
5、其它导出方式:sqoop、hdfs客户端
清除表中数据(Truncate)
注意:Truncate只能删除管理表,不能删除外部表中数据
hive (default)> truncate table student;
最后
以上就是犹豫老鼠最近收集整理的关于六、Hive-DML数据导入导出操作的全部内容,更多相关六、Hive-DML数据导入导出操作内容请搜索靠谱客的其他文章。
发表评论 取消回复