概述
1、系统内置函数
(1)查看系统自带的函数
show functions;
(2)显示自带的函数的用法
desc function upper;
(3)详细显示自带的函数的用法
desc function extended upper;
2、自定义函数
引入maven依赖
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>2.3.6</version>
</dependency>
自定义函数使用步骤(以UDF为例):
(1)继承org.apache.hadoop.hive.ql.exec.UDF实现 evaluate 函数(evaluate 可以重载)
(2)在hive命令行添加 jar
add jar linux_jar_path
(3)在hive命令行创建 function
create [temporary] function [dbname.]function_name AS class_name;
注意:创建的时候带有temporary表明只是在当前hive的会话session有效,关闭session后,自动删除函数
(4)在 hive 的命令行窗口删除函数
Drop [temporary] function [if exists] [dbname.]function_name;
用户自定义函数类别分为以下三种
(1)UDF(User-Defined-Function)
一进一出
注意:UDF 必须要有返回类型,可以返回 null,但是返回类型不能为 void
例:
public class LowerUDF extends UDF{ /** * 将输入值变成小写格式 * @param input * @return */ public String evaluate(String input){ return input.toLowerCase(); } /** * input变成小写后拼接上defaultV * @param input * @param defaultV * @return */ public String evaluate(String input,String defaultV){ return input.toLowerCase()+defaultV; } }
在hive命令行添加 jar:
hive (test)> add jar /opt/temp/hive/Hadoop.jar;
Added [/opt/temp/hive/Hadoop.jar] to class path
Added resources: [/opt/temp/hive/Hadoop.jar]
在hive命令行创建 function
hive (test)> create temporary function lowerudf as "com.hive.udf.LowerUDF";
OK
Time taken: 0.057 seconds
在hive的sql中使用自定义函数
hive (test)> select lowerudf('ABC');
OK
_c0
abc
Time taken: 0.56 seconds, Fetched: 1 row(s)
hive (test)> select lowerudf('HELLO',' hive');
OK
_c0
hello hive
Time taken: 0.111 seconds, Fetched: 1 row(s)
(2)UDAF(User-Defined Aggregation Function)
聚集函数,多进一出
类似于:count/max/min
(3)UDTF(User-Defined Table-Generating Functions)
一进多出
如 lateral view explore()
例:
public class SplitUDTF extends GenericUDTF { private List<String> outList=new ArrayList<>(); @Override public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException { //1.定义输出数据的列名和类型 List<String> fieldNames = new ArrayList<>(); List<ObjectInspector> fieldOIs = new ArrayList<>(); //2.添加输出数据的列名和类型 fieldNames.add("lineToWord"); fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector); return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs); } @Override public void process(Object[] args) throws HiveException { //1.获取原始数据 String arg = args[0].toString(); //2.获取数据传入的第二个参数,此处为分隔符 String splitKey = args[1].toString(); //3.将原始数据按照传入的分隔符进行切分 String[] fields = arg.split(splitKey); //4.遍历切分后的结果,并写出 for (String field : fields) { //集合为复用的,首先清空集合 outList.clear(); //将每一个单词添加至集合 outList.add(field); //将集合内容写出 forward(outList); } } @Override public void close() throws HiveException { } }
hive (test)> add jar /opt/temp/hive/Hadoop.jar;
Added [/opt/temp/hive/Hadoop.jar] to class path
Added resources: [/opt/temp/hive/Hadoop.jar]
hive (test)> create temporary function splitudtf as 'com.hive.udtf.SplitUDTF';
OK
Time taken: 0.055 seconds
hive (test)> select splitudtf('hello,hive,java',',');
OK
linetoword
hello
hive
java
Time taken: 1.321 seconds, Fetched: 3 row(s)
最后
以上就是从容哈密瓜为你收集整理的Hive之自定义函数的全部内容,希望文章能够帮你解决Hive之自定义函数所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复