概述
Sqoop实现关系型数据库到hive的数据传输
sh脚本
#!/bin/sh
v_columns=NOTE_ID_1,NOTE_NAME_1,NOTE_ID_2,NOTE_NAME_2,NOTE_ID_3,NOTE_NAME_3,NOTE_ID_4,NOTE_NAME_4,NOTE_ID_5,NOTE_NAME_5,NOTE_ID_6,NOTE_NAME_6,
TYPE_VALUES,NOTE_NAME
sqoop import --append --connect jdbc:oracle:thin:@132.232.19.119:2527:szdw --username ******* --password *******
--target-dir '/home/hadoop/data/etl_bss/view_loc_note_ydyw_hdgb' --m 1 --split-by NOTE_ID_1 --table ETL_BSS.VIEW_LOC_NOTE_YDYW_HDGB
--columns ${v_columns} --fields-terminated-by 't';
hive 建表
CREATE TABLE
VIEW_LOC_NOTE_YDYW_HDGB(
NOTE_ID_1 INT,
NOTE_NAME_1 STRING,
NOTE_ID_2 INT,
NOTE_NAME_2 STRING,
NOTE_ID_3 INT,
NOTE_NAME_3 STRING,
NOTE_ID_4 INT,
NOTE_NAME_4 STRING,
NOTE_ID_5 INT,
NOTE_NAME_5 STRING,
NOTE_ID_6 INT,
NOTE_NAME_6 STRING,
TYPE_VALUES INT,
NOTE_NAME STRING
)
COMMENT "THIS IS A VIEW_LOC_NOTE_YDYW_HDGB"
ROW FORMAT DELIMITED FIELDS TERMINATED BY 't'
STORED AS TEXTFILE;
加载数据
load data inpath '/home/hadoop/data/etl_bss/view_loc_note_ydyw_hdgb' into table VIEW_LOC_NOTE_YDYW_HDGB;
最后
以上就是甜甜发夹为你收集整理的Sqoop实现关系型数据库到hive的数据传输的全部内容,希望文章能够帮你解决Sqoop实现关系型数据库到hive的数据传输所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复