概述
DDL语句,数据库、表的基本CURD操作
- 一、数据库-操作
- 1.1 创建-库
- 1.2 查询-库
- 1.3 修改-库
- 1.4 删除-库
- 二、表-操作
- 2.1 创建-表
- 2.1.1 管理表
- 2.1.2 外部表
- 2.1.3 管理表与外部表的互相转换
- 2.2 修改-表
- 2.2.1 重命名表
- 2.2.2 增加/修改/替换列信息
- 2.2.3 增加/修改/删除表分区和分桶表
- 2.3 删除-表
- 2.4 清除-表
- 2.5 查看-表
一、数据库-操作
1.1 创建-库
CREATE DATABASE [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];
-
创建一个数据库,数据库在HDFS上的默认存储路径是/user/hive/warehouse/*.db。
/user/hive/warehouse就是default库```sql hive (default)> create database db_hive; ```
-
避免要创建的数据库已经存在错误,增加if not exists判断。(标准写法)
hive (default)> create database db_hive; FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Database db_hive already exists hive (default)> create database if not exists db_hive;
-
创建一个数据库,指定数据库在HDFS上存放的位置(库和表都是以文件夹的形式)
hive (default)> create database db_hive2 location '/db_hive2';
1.2 查询-库
-
显示数据库
hive> show databases;
-
过滤显示查询的数据库
hive> show databases like 'db_hive*'; OK db_hive db_hive_1
-
显示数据库信息
hive> desc database db_hive; OK db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjlUSER
-
显示数据库详细信息,extended关键字
hive> desc database extended db_hive; OK db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjlUSER
-
切换当前数据库
hive (default)> use db_hive;
-
查看当前使用的数据库
hive (default)> select current_database();
1.3 修改-库
用户可以使用ALTER DATABASE命令为某个数据库的DBPROPERTIES设置键-值对属性值,来描述这个数据库的属性信息。数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置。
hive (default)> alter database db_hive set dbproperties('createtime'='20200101');
在hive中查看修改结果
hive> desc database extended db_hive;
db_name comment location owner_name owner_type parameters
db_hive hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db qinjl USER {createtime=20200101}
1.4 删除-库
-
删除空数据库
hive>drop database db_hive2;
-
如果删除的数据库不存在,最好采用 if exists判断数据库是否存在
hive> drop database db_hive; FAILED: SemanticException [Error 10072]: Database does not exist: db_hive hive> drop database if exists db_hive2;
-
如果数据库不为空,可以采用cascade命令,强制删除(级联删除,里面的表也会删除)
hive> drop database db_hive; FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. InvalidOperationException(message:Database db_hive is not empty. One or more tables exist.) hive> drop database db_hive cascade;
二、表-操作
2.1 创建-表
1)建表语法
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name # EXTERNAL表示创建表是否是外部表
[(col_name data_type [COMMENT col_comment], ...)] # 表的字段名 和字段类型 ,以及对字段的解释
[COMMENT table_comment] # 对于表的解释
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] # 分区
[CLUSTERED BY (col_name, col_name, ...) # 分桶
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] # 分几个桶
[ROW FORMAT DELIMITED # 对于当前的表分隔的说明
[FIELDS TERMINATED BY char] # 对于字段的分隔说明 --默认是ascii 码表的001 ^A
yangyang,caicai_susu, xiao yang:18_xiaoxiao yang:19,chao yang_beijing_10011
# 对于此行数据的分隔类型是 ','
[COLLECTION ITEMS TERMINATED BY char] # 对于集合的分隔说明 --默认是ascii 码表的002 ^B
caicai_susu xiao yang:18_xiaoxiao yang:19 chao yang_beijing_10011
# 对于三个集合 map array struct 分隔是'_'
[MAP KEYS TERMINATED BY char] # 对于map的kv分隔类型 --默认是ascii 码表的003 ^C
xiao yang:18
# 对于当前map集合分隔符是 ':'
[LINES TERMINATED BY char] # 对于每行数据而言的分隔类型 'n'
]
[STORED AS file_format] # 对于当前表对应文件存储类型
[LOCATION hdfs_path] # 指定的hdfs路径 如果不指定默认在库里面
[TBLPROPERTIES (property_name=property_value, ...)] # 表的属性
[AS select_statement] # 根据查询的结果创建表(包括表的结构和数据)
[LIKE table_name] # 模仿一张表(只有表的结构没有数据)
2)字段解释说明
(1)CREATE TABLE
:创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;可以用 IF NOT EXISTS
选项来忽略这个异常。
(2)EXTERNAL
:关键字可以创建一个外部表,在建表的同时可以指定一个指向实际数据的路径(LOCATION),在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。
(3)COMMENT
:为表和列添加注释。
(4)PARTITIONED BY
:创建分区表
(5)CLUSTERED BY
:创建分桶表
(6)SORTED BY
:对桶中的一个或多个列另外排序
(7)ROW FORMAT
DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
[MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
| SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, ...)]
用户在建表的时候可以自定义SerDe或者使用自带的SerDe。如果没有指定ROW FORMAT 或者ROW FORMAT DELIMITED,将会使用自带的SerDe。在建表的时候,用户还需要为表指定列,用户在指定表的列的同时也会指定自定义的SerDe,Hive通过SerDe确定表的具体的列的数据。
SerDe是Serialize/Deserilize的简称, hive使用Serde进行行对象的序列与反序列化。
(8)STORED AS
:指定存储文件类型
- 常用的存储文件类型:SEQUENCEFILE(二进制序列文件)、TEXTFILE(文本)、RCFILE(列式存储格式文件)
- 如果文件数据是纯文本,可以使用STORED AS TEXTFILE。如果数据需要压缩,使用 STORED AS SEQUENCEFILE。
(9)LOCATION
:指定表在HDFS上的存储位置。
(10)AS
:后跟查询语句,根据查询结果创建表。
(11)LIKE
:允许用户复制现有的表结构,但是不复制数据。
2.1.1 管理表
1)理论
默认创建的表都是所谓的管理表,有时也被称为内部表。
因为这种表,Hive会控制着数据的生命周期。
当我们删除一个管理表时,Hive也会删除这个表中数据。管理表不适合和其他工具共享数据。
2)案例实操
(1)普通创建表
create table if not exists student(
id int, name string
)
row format delimited fields terminated by 't'
location '/user/hive/warehouse/student';
(2)根据查询结果创建表(as)(查询的结果会添加到新创建的表中)
hdfs扫描文件是从上往下,加载到hive也是按hfds的顺序读的数据
create table if not exists student2
as select id, name from studet;
(3)根据已经存在的表结构创建表(like)
create table if not exists student3
like student;
(4)查询表的类型
hive (default)> desc formatted student2;
Table Type: MANAGED_TABLE
2.1.2 外部表
1)理论
因为表是外部表,所以Hive并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉。
2)管理表和外部表的使用场景
每天将收集到的网站日志定期流入HDFS文本文件。在外部表(原始日志表)的基础上做大量的统计分析,用到的中间表、结果表使用内部表存储,数据通过SELECT+INSERT进入内部表。
3)案例实操
创建部门外部表,并向表中导入数据。
(1)建表语句,创建外部表
创建部门表
create external table if not exists dept(
deptno int,
dname string,
loc int
)
row format delimited fields terminated by 't'
location '/company/dept';
(2)查看表格式化数据
hive (default)> desc formatted dept;
Table Type: EXTERNAL_TABLE
(3)删除外部表(外部表删除后,hdfs中的数据还在,但是metadata中dept的元数据已被删除)
hive (default)> drop table dept;
2.1.3 管理表与外部表的互相转换
(2)修改内部表student为外部表
alter table student set tblproperties('EXTERNAL'='TRUE');
- 注意:(‘EXTERNAL’=‘TRUE’)和(‘EXTERNAL’=‘FALSE’)为固定写法,区分大小写!
2.2 修改-表
2.2.1 重命名表
1)语法
ALTER TABLE table_name RENAME TO new_table_name
2)实操案例
hive (default)> alter table student2 rename to student3;
2.2.2 增加/修改/替换列信息
1)语法
-
更新列
更新列,列名可以随意修改,列的类型只能小改大,不能大改小(遵循自动转换规则)
ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]
-
增加和替换列
ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)
注:ADD是代表新增一字段,ADD字段位置在所有列后面(partition列前),REPLACE则是表示替换表中所有字段,REPLACE使用的时候,字段的类型要跟之前的类型对应上,数量可以减少或者增加,其实就是包含了更新列,增加列,删除列的功能。
2)实操案例
(1)查询表结构
hive> desc dept;
(2)添加列
hive (default)> alter table dept add columns(deptdesc string);
(3)查询表结构
hive> desc dept;
(4)更新列
hive (default)> alter table dept change column deptdesc desc string;
(5)查询表结构
hive> desc dept;
(6)替换列
hive (default)> alter table dept replace columns(deptno string, dname string, loc string);
(7)查询表结构
hive> desc dept;
2.2.3 增加/修改/删除表分区和分桶表
link
2.3 删除-表
hive (default)> drop table dept;
2.4 清除-表
- 注意:Truncate只能删除管理表的数据(元数据信息还在,表(文件夹)还在),不能删除外部表中数据
hive (default)> truncate table student;
2.5 查看-表
查看表基本字段信息
desc tableName
查看详情信息
desc formatted tableName
最后
以上就是活泼音响为你收集整理的【Hive-基础】DDL语句,数据库、表的基本CURD操作一、数据库-操作二、表-操作的全部内容,希望文章能够帮你解决【Hive-基础】DDL语句,数据库、表的基本CURD操作一、数据库-操作二、表-操作所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复