我是靠谱客的博主 活泼音响,最近开发中收集的这篇文章主要介绍【Hive-基础】DDL语句,数据库、表的基本CURD操作一、数据库-操作二、表-操作,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

DDL语句,数据库、表的基本CURD操作

  • 一、数据库-操作
    • 1.1 创建-库
    • 1.2 查询-库
    • 1.3 修改-库
    • 1.4 删除-库
  • 二、表-操作
    • 2.1 创建-表
      • 2.1.1 管理表
      • 2.1.2 外部表
      • 2.1.3 管理表与外部表的互相转换
    • 2.2 修改-表
      • 2.2.1 重命名表
      • 2.2.2 增加/修改/替换列信息
      • 2.2.3 增加/修改/删除表分区和分桶表
    • 2.3 删除-表
    • 2.4 清除-表
    • 2.5 查看-表

一、数据库-操作

1.1 创建-库

CREATE DATABASE [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];
  • 创建一个数据库,数据库在HDFS上的默认存储路径是/user/hive/warehouse/*.db。

    /user/hive/warehouse就是default库

      ```sql
      hive (default)> create database db_hive;
      ```
    
  • 避免要创建的数据库已经存在错误,增加if not exists判断。(标准写法)

    hive (default)> create database db_hive;
    FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. Database db_hive already exists
    
    hive (default)> create database if not exists db_hive;
    
  • 创建一个数据库,指定数据库在HDFS上存放的位置(库和表都是以文件夹的形式)

    hive (default)> create database db_hive2 location '/db_hive2';
    

1.2 查询-库

  • 显示数据库

    hive> show databases;
    
  • 过滤显示查询的数据库

    hive> show databases like 'db_hive*';
    OK
    db_hive
    db_hive_1
    
  • 显示数据库信息

    hive> desc database db_hive;
    OK
    db_hive		hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db	qinjlUSER	
    
  • 显示数据库详细信息,extended关键字

    hive> desc database extended db_hive;
    OK
    db_hive		hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db	qinjlUSER	
    
  • 切换当前数据库

    hive (default)> use db_hive;
    
  • 查看当前使用的数据库

    hive (default)> select current_database();
    

1.3 修改-库

用户可以使用ALTER DATABASE命令为某个数据库的DBPROPERTIES设置键-值对属性值,来描述这个数据库的属性信息。数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置

hive (default)> alter database db_hive set dbproperties('createtime'='20200101');

在hive中查看修改结果

hive> desc database extended db_hive;
db_name comment location        owner_name      owner_type      parameters
db_hive         hdfs://hadoop102:8020/user/hive/warehouse/db_hive.db    qinjl USER    {createtime=20200101}

1.4 删除-库

  • 删除空数据库

    hive>drop database db_hive2;
    
  • 如果删除的数据库不存在,最好采用 if exists判断数据库是否存在

    hive> drop database db_hive;
    FAILED: SemanticException [Error 10072]: Database does not exist: db_hive
    
    hive> drop database if exists db_hive2;
    
  • 如果数据库不为空,可以采用cascade命令,强制删除(级联删除,里面的表也会删除)

    hive> drop database db_hive;
    FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. InvalidOperationException(message:Database db_hive is not empty. One or more tables exist.)
    
    hive> drop database db_hive cascade;
    

二、表-操作

2.1 创建-表

1)建表语法

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name   # EXTERNAL表示创建表是否是外部表
[(col_name data_type [COMMENT col_comment], ...)]    # 表的字段名 和字段类型  ,以及对字段的解释
[COMMENT table_comment]                              # 对于表的解释
[PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]   # 分区
[CLUSTERED BY (col_name, col_name, ...)                            # 分桶
[SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]   # 分几个桶
[ROW FORMAT DELIMITED                        # 对于当前的表分隔的说明
 [FIELDS TERMINATED BY char]                 # 对于字段的分隔说明  --默认是ascii 码表的001 ^A
 yangyang,caicai_susu, xiao yang:18_xiaoxiao yang:19,chao yang_beijing_10011 
                                             # 对于此行数据的分隔类型是 ','
 [COLLECTION ITEMS TERMINATED BY char]       # 对于集合的分隔说明  --默认是ascii 码表的002 ^B
 caicai_susu xiao yang:18_xiaoxiao yang:19 chao yang_beijing_10011
                                             # 对于三个集合 map array struct 分隔是'_'
 [MAP KEYS TERMINATED BY char]               # 对于map的kv分隔类型 --默认是ascii 码表的003 ^C
 xiao yang:18 
                                             # 对于当前map集合分隔符是 ':'
 [LINES TERMINATED BY char]                  # 对于每行数据而言的分隔类型  'n'
] 
[STORED AS file_format]                      # 对于当前表对应文件存储类型
[LOCATION hdfs_path]                         # 指定的hdfs路径 如果不指定默认在库里面
[TBLPROPERTIES (property_name=property_value, ...)]  # 表的属性
[AS select_statement]                        # 根据查询的结果创建表(包括表的结构和数据)
[LIKE table_name]                            # 模仿一张表(只有表的结构没有数据)

2)字段解释说明

(1)CREATE TABLE:创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;可以用 IF NOT EXISTS 选项来忽略这个异常

(2)EXTERNAL关键字可以创建一个外部表,在建表的同时可以指定一个指向实际数据的路径(LOCATION),在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据

(3)COMMENT:为表和列添加注释。

(4)PARTITIONED BY:创建分区表

(5)CLUSTERED BY:创建分桶表

(6)SORTED BY:对桶中的一个或多个列另外排序

(7)ROW FORMAT

DELIMITED [FIELDS TERMINATED BY char] [COLLECTION ITEMS TERMINATED BY char]
        [MAP KEYS TERMINATED BY char] [LINES TERMINATED BY char]
   | SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value, property_name=property_value, ...)]

用户在建表的时候可以自定义SerDe或者使用自带的SerDe。如果没有指定ROW FORMAT 或者ROW FORMAT DELIMITED,将会使用自带的SerDe。在建表的时候,用户还需要为表指定列,用户在指定表的列的同时也会指定自定义的SerDe,Hive通过SerDe确定表的具体的列的数据

SerDe是Serialize/Deserilize的简称, hive使用Serde进行行对象的序列与反序列化。

(8)STORED AS:指定存储文件类型

  • 常用的存储文件类型:SEQUENCEFILE(二进制序列文件)、TEXTFILE(文本)、RCFILE(列式存储格式文件)
  • 如果文件数据是纯文本,可以使用STORED AS TEXTFILE。如果数据需要压缩,使用 STORED AS SEQUENCEFILE。

(9)LOCATION :指定表在HDFS上的存储位置。

(10)AS:后跟查询语句,根据查询结果创建表。

(11)LIKE:允许用户复制现有的表结构,但是不复制数据。

2.1.1 管理表

1)理论

默认创建的表都是所谓的管理表,有时也被称为内部表
因为这种表,Hive会控制着数据的生命周期。
当我们删除一个管理表时,Hive也会删除这个表中数据。管理表不适合和其他工具共享数据。

2)案例实操

(1)普通创建表

create table if not exists student(
	id int, name string
)
row format delimited fields terminated by 't'
location '/user/hive/warehouse/student';

(2)根据查询结果创建表(as)(查询的结果会添加到新创建的表中)

hdfs扫描文件是从上往下,加载到hive也是按hfds的顺序读的数据

create table if not exists student2 
as select id, name from studet;

(3)根据已经存在的表结构创建表(like)

create table if not exists student3 
like student;

(4)查询表的类型

hive (default)> desc formatted student2;
Table Type:             MANAGED_TABLE  

2.1.2 外部表

1)理论

因为表是外部表,所以Hive并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉

2)管理表和外部表的使用场景

每天将收集到的网站日志定期流入HDFS文本文件。在外部表(原始日志表)的基础上做大量的统计分析,用到的中间表、结果表使用内部表存储,数据通过SELECT+INSERT进入内部表。

3)案例实操

创建部门外部表,并向表中导入数据。

(1)建表语句,创建外部表

创建部门表

create external table if not exists dept(
deptno int,
dname string,
loc int
)
row format delimited fields terminated by 't'
location '/company/dept';

(2)查看表格式化数据

hive (default)> desc formatted dept;
Table Type:             EXTERNAL_TABLE

(3)删除外部表(外部表删除后,hdfs中的数据还在,但是metadata中dept的元数据已被删除

hive (default)> drop table dept;

2.1.3 管理表与外部表的互相转换

(2)修改内部表student为外部表

alter table student set tblproperties('EXTERNAL'='TRUE');
  • 注意:(‘EXTERNAL’=‘TRUE’)和(‘EXTERNAL’=‘FALSE’)为固定写法,区分大小写!

2.2 修改-表

2.2.1 重命名表

1)语法
ALTER TABLE table_name RENAME TO new_table_name
2)实操案例
hive (default)> alter table student2 rename to student3;

2.2.2 增加/修改/替换列信息

1)语法

  • 更新列

    更新列,列名可以随意修改,列的类型只能小改大,不能大改小(遵循自动转换规则)

    ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]
    
  • 增加和替换列

    ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...) 
    

    ADD是代表新增一字段,ADD字段位置在所有列后面(partition列前),REPLACE则是表示替换表中所有字段,REPLACE使用的时候,字段的类型要跟之前的类型对应上,数量可以减少或者增加,其实就是包含了更新列,增加列,删除列的功能。

2)实操案例

1)查询表结构
hive> desc dept;2)添加列
hive (default)> alter table dept add columns(deptdesc string);3)查询表结构
hive> desc dept;4)更新列
hive (default)> alter table dept change column deptdesc desc string;5)查询表结构
hive> desc dept;6)替换列
hive (default)> alter table dept replace columns(deptno string, dname string, loc string);7)查询表结构
hive> desc dept;

2.2.3 增加/修改/删除表分区和分桶表

link

2.3 删除-表

hive (default)> drop table dept;

2.4 清除-表

  • 注意:Truncate只能删除管理表的数据(元数据信息还在,表(文件夹)还在),不能删除外部表中数据
hive (default)> truncate table student;

2.5 查看-表

查看表基本字段信息

desc tableName

查看详情信息

desc formatted tableName

最后

以上就是活泼音响为你收集整理的【Hive-基础】DDL语句,数据库、表的基本CURD操作一、数据库-操作二、表-操作的全部内容,希望文章能够帮你解决【Hive-基础】DDL语句,数据库、表的基本CURD操作一、数据库-操作二、表-操作所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(60)

评论列表共有 0 条评论

立即
投稿
返回
顶部