我是靠谱客的博主 从容哈密瓜,最近开发中收集的这篇文章主要介绍Hive之自定义函数,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1、系统内置函数

(1)查看系统自带的函数 

show functions;

(2)显示自带的函数的用法 

desc function upper; 

(3)详细显示自带的函数的用法 

desc function extended upper; 

2、自定义函数 

引入maven依赖

<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>2.3.6</version>
</dependency>

自定义函数使用步骤(以UDF为例):

(1)继承org.apache.hadoop.hive.ql.exec.UDF实现 evaluate 函数(evaluate 可以重载)

(2)在hive命令行添加 jar 

         add jar linux_jar_path 

(3)在hive命令行创建 function 

          create [temporary] function [dbname.]function_name AS class_name; 

          注意:创建的时候带有temporary表明只是在当前hive的会话session有效,关闭session后,自动删除函数

(4)在 hive 的命令行窗口删除函数 

          Drop [temporary] function [if exists] [dbname.]function_name; 

用户自定义函数类别分为以下三种

(1)UDF(User-Defined-Function) 
 一进一出 

注意:UDF 必须要有返回类型,可以返回 null,但是返回类型不能为 void

例:

public class LowerUDF extends UDF{
/**
* 将输入值变成小写格式
* @param input
* @return
*/
public String evaluate(String input){
return input.toLowerCase();
}
/**
* input变成小写后拼接上defaultV
* @param input
* @param defaultV
* @return
*/
public String evaluate(String input,String defaultV){
return input.toLowerCase()+defaultV;
}
}

在hive命令行添加 jar:

hive (test)> add jar /opt/temp/hive/Hadoop.jar;
Added [/opt/temp/hive/Hadoop.jar] to class path
Added resources: [/opt/temp/hive/Hadoop.jar]

在hive命令行创建 function 

hive (test)> create temporary function lowerudf as "com.hive.udf.LowerUDF";
OK
Time taken: 0.057 seconds
在hive的sql中使用自定义函数

hive (test)> select lowerudf('ABC');
OK
_c0
abc
Time taken: 0.56 seconds, Fetched: 1 row(s)

hive (test)> select lowerudf('HELLO',' hive');
OK
_c0
hello hive
Time taken: 0.111 seconds, Fetched: 1 row(s)

(2)UDAF(User-Defined Aggregation Function) 
 聚集函数,多进一出 
 类似于:count/max/min 


(3)UDTF(User-Defined Table-Generating Functions) 
 一进多出 
 如 lateral view explore() 

例:

public class SplitUDTF extends GenericUDTF {
private List<String> outList=new ArrayList<>();
@Override
public StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {
//1.定义输出数据的列名和类型
List<String> fieldNames = new ArrayList<>();
List<ObjectInspector> fieldOIs = new ArrayList<>();
//2.添加输出数据的列名和类型
fieldNames.add("lineToWord");
fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);
return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs);
}
@Override
public void process(Object[] args) throws HiveException {
//1.获取原始数据
String arg = args[0].toString();
//2.获取数据传入的第二个参数,此处为分隔符
String splitKey = args[1].toString();
//3.将原始数据按照传入的分隔符进行切分
String[] fields = arg.split(splitKey);
//4.遍历切分后的结果,并写出
for (String field : fields) {
//集合为复用的,首先清空集合
outList.clear();
//将每一个单词添加至集合
outList.add(field);
//将集合内容写出
forward(outList);
}
}
@Override
public void close() throws HiveException {
}
}

hive (test)> add jar /opt/temp/hive/Hadoop.jar;
Added [/opt/temp/hive/Hadoop.jar] to class path
Added resources: [/opt/temp/hive/Hadoop.jar]
hive (test)> create temporary function splitudtf as 'com.hive.udtf.SplitUDTF';
OK
Time taken: 0.055 seconds
hive (test)> select splitudtf('hello,hive,java',',');
OK
linetoword
hello
hive
java
Time taken: 1.321 seconds, Fetched: 3 row(s)
 

 

最后

以上就是从容哈密瓜为你收集整理的Hive之自定义函数的全部内容,希望文章能够帮你解决Hive之自定义函数所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(57)

评论列表共有 0 条评论

立即
投稿
返回
顶部