函数

1、系统内置函数

1)查看系统自带的函数
hive> show functions;
2)显示自带的函数的用法
hive> desc function upper;
3)详细显示自带的函数的用法
hive> desc function extended upper;

2、常用内置函数

空字段赋值

1)函数说明
nvl:给值为null 的数据赋值,它的格式是nvl( value,default_value)。它的功能是如果 value 为 null,则 nvl 函数返回 default_value 的值,否则返回 value 的值,如果两个参数都为 null ,则返回null。
2)数据准备:采用员工表
3)查询:如果员工的 comm 为 NULL,则用-1 代替
hive (default)> select comm,nvl(comm, -1) from emp;
4)查询:如果员工的 comm 为 NULL,则用领导 id 代替
hive (default)> select comm, nvl(comm,mgr) from emp;

CASE WHEN THEN ELSE END

1)数据准备

name dept_id sex
悟空  A   男
大海  A   男
宋宋  B   男
凤姐  A   女
婷姐  B   女
婷婷  B   女

2)需求
求出不同部门男女各多少人。结果如下:

dept_Id 男 女
A       2 1
B       1 2

3)创建本地 emp_sex.txt,导入数据
vi emp_sex.txt
悟空 A 男
大海 A 男
宋宋 B 男
凤姐 A 女
婷姐 B 女
婷婷 B 女
4)创建 hive 表并导入数据

create table emp_sex(
name string,
dept_id string,
sex string)
row format delimited fields terminated by "\t";
load data local inpath '/opt/module/hive/data/emp_sex.txt' into table
emp_sex;

5)按需求查询数据

selectdept_id,sum(case sex when '男' then 1 else 0 end) male_count,sum(case sex when '女' then 1 else 0 end) female_count
from emp_sex
group by dept_id;

行转列

1)相关函数说明
concat(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串;
concat_ws(separator, str1, str2,…):它是一个特殊形式的concat()。第一个参数剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;
注意: concat_ws must be "string or array <string>
collect_set(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生 Array 类型字段。
2)数据准备

name constellation blood_type
孙悟空     白羊座         A
大海  射手座         A
宋宋  白羊座         B
猪八戒     白羊座         A
凤姐  射手座         A
苍老师     白羊座         B

3)需求
把星座和血型一样的人归类到一起。结果如下:

射手座,A    大海|凤姐
白羊座,A   孙悟空|猪八戒
白羊座,B   宋宋|苍老师

4)创建本地 constellation.txt,导入数据
vim person_info.txt

孙悟空 白羊座 A
大海 射手座 A
宋宋 白羊座 B
猪八戒 白羊座 A
凤姐 射手座 A
苍老师 白羊座 B

5)创建 hive 表并导入数据

create table person_info(
name string,
constellation string,
blood_type string)
row format delimited fields terminated by "\t";
load data local inpath "/opt/module/hive/data/person_info.txt" into table person_info;

6)按需求查询数据

SELECTt1.c_b,CONCAT_WS("|",collect_set(t1.name))
FROM (SELECTNAME,CONCAT_WS(',',constellation,blood_type) c_bFROM person_info)t1
GROUP BY t1.c_b

列转行

1)函数说明
explode(col):将 hive 一列中复杂的 Array 或者 Map 结构拆分成多行。
lateral view
用法:lateral view udtf(expression) tableAlias AS columnAlias
解释:用于和 split, explode 等 UDTF 一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。
2)数据准备

movie                category
《疑犯追踪》      悬疑,动作,科幻,剧情
《Lie to me》     悬疑,警匪,动作,心理,剧情
《战狼 2》      战争,动作,灾难

3)需求
将电影分类中的数组数据展开。结果如下:

《疑犯追踪》       悬疑
《疑犯追踪》      动作
《疑犯追踪》      科幻
《疑犯追踪》      剧情
《Lie to me》     悬疑
《Lie to me》     警匪
《Lie to me》     动作
《Lie to me》     心理
《Lie to me》     剧情
《战狼 2》      战争
《战狼 2》      动作
《战狼 2》      灾难

4)创建本地 movie.txt,导入数据
vi movie_info.txt
《疑犯追踪》 悬疑,动作,科幻,剧情
《Lie to me》悬疑,警匪,动作,心理,剧情
《战狼 2》 战争,动作,灾难
5)创建 hive 表并导入数据

create table movie_info(movie string,category string)
row format delimited fields terminated by "\t";
load data local inpath "/opt/module/data/movie.txt" into table movie_info;

6)按需求查询数据

SELECTmovie,category_name
FROMmovie_info
lateral VIEWexplode(split(category,",")) movie_info_tmp AS category_name;

窗口函数(开窗函数)

1)相关函数说明
over():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化。
current row:当前行
n preceding:往前 n 行数据
n following:往后 n 行数据
unbounded:起点,unbounded preceding 表示从前面的起点,unbounded following 表示到后面的终点
lag(col,n,default_val):往前第 n 行数据
lead(col,n, default_val):往后第 n 行数据
ntile(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从 1 开始,对于每一行,NTILE 返回此行所属的组的编号。注意:n 必须为 int 类型。
2)数据准备:name,orderdate,cost

jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94

3)需求
(1)查询在 2017 年 4 月份购买过的顾客及总人数
(2)查询顾客的购买明细及月购买总额
(3)上述的场景, 将每个顾客的 cost 按照日期进行累加
(4)查询每个顾客上次的购买时间
(5)查询前 20%时间的订单信息
4)创建本地 business.txt,导入数据vi business.txt
5)创建 hive 表并导入数据

create table business(
name string,
orderdate string,
cost int
) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';
load data local inpath "/opt/module/data/business.txt" into table business;

6)按需求查询数据
(1) 查询在 2017 年 4 月份购买过的顾客及总人数

select name,count(*) over ()
from business
where substring(orderdate,1,7) = '2017-04'
group by name;

(2) 查询顾客的购买明细及月购买总额

select name,orderdate,cost,sum(cost) over(partition by month(orderdate)) from business;

(3) 将每个顾客的 cost 按照日期进行累加

select name,orderdate,cost,
sum(cost) over() as sample1,--所有行相加
sum(cost) over(partition by name) as sample2,--按 name 分组,组内数据相加
sum(cost) over(partition by name order by orderdate) as sample3,--按 name分组,组内数据累加
sum(cost) over(partition by name order by orderdate rows between unbounded preceding and current row ) as sample4 ,--和 sample3 一样,由起点到当前行的聚合
sum(cost) over(partition by name order by orderdate rows between 1 preceding and current row) as sample5, --当前行和前面一行做聚合
sum(cost) over(partition by name order by orderdate rows between 1 preceding AND 1 following ) as sample6,--当前行和前边一行及后面一行
sum(cost) over(partition by name order by orderdate rows between current row and unbounded following ) as sample7 --当前行及后面所有行
from business;

或者

select name,orderdate,cost,sum(cost) over(partition by name order by orderdate)from business;

rows 必须跟在 order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量
(4) 查看顾客上次的购买时间

select name,orderdate,cost,
lag(orderdate,1,'1900-01-01')
over(partition by name order by orderdate ) as time1, lag(orderdate,2)
over (partition by name order by orderdate) as time2
from business;

或者

select name,orderdate,lag(orderdate,1)
over(partition by name order by orderdate)
from business;

(5) 查询前 20%时间的订单信息

select * from (select name,orderdate,cost, ntile(5) over(order by orderdate) sorted  from business
) t
where sorted = 1;

Rank

1)函数说明
rank() 排序相同时会重复,总数不会变
dense_rank() 排序相同时会重复,总数会减少
row_NUMBER() 会根据顺序计算
2)数据准备

name     subject score
孙悟空     语文  87
孙悟空     数学  95
孙悟空     英语  68
大海  语文  94
大海  数学  56
大海  英语  84
宋宋  语文  64
宋宋  数学  86
宋宋  英语  84
婷婷  语文  65
婷婷  数学  85
婷婷  英语  78

3)需求
计算每门学科成绩排名。
4)创建本地 score.txt,导入数据 vi score.txt
5)创建 hive 表并导入数据

create table score(
name string,
subject string,
score int)
row format delimited fields terminated by "\t";
load data local inpath '/opt/module/data/score.txt' into table score;

6)按需求查询数据

select name,
subject,
score,
rank() over(partition by subject order by score desc) rp,
dense_rank() over(partition by subject order by score desc) drp,
row_number() over(partition by subject order by score desc) rmp
from score;

其他常用函数

常用日期函数
unix_timestamp:返回当前或指定时间的时间戳
select unix_timestamp();
select unix_timestamp(“2020-10-28”,‘yyyy-MM-dd’);

from_unixtime:将时间戳转为日期格式
select from_unixtime(1603843200);

current_date:当前日期
select current_date;

current_timestamp:当前的日期加时间
select current_timestamp;

to_date:抽取日期部分
select to_date(‘2020-10-28 12:12:12’);

year:获取年
select year(‘2020-10-28 12:12:12’);

month:获取月
select month(‘2020-10-28 12:12:12’);

day:获取日
select day(‘2020-10-28 12:12:12’);

hour:获取时
select hour(‘2020-10-28 12:12:12’);

minute:获取分
select minute(‘2020-10-28 12:12:12’);

second:获取秒
select second(‘2020-10-28 12:12:12’);

weekofyear:当前时间是一年中的第几周
select weekofyear(‘2020-10-28 12:12:12’);

dayofmonth:当前时间是一个月中的第几天
select dayofmonth(‘2020-10-28 12:12:12’);

months_between: 两个日期间的月份
select months_between(‘2020-04-01’,‘2020-10-28’);

add_months:日期加减月
select add_months(‘2020-10-28’,-3);

datediff:两个日期相差的天数
select datediff(‘2020-11-04’,‘2020-10-28’);

date_add:日期加天数
select date_add(‘2020-10-28’,4);

date_sub:日期减天数
select date_sub(‘2020-10-28’,-4);

last_day:日期的当月的最后一天
select last_day(‘2020-02-30’);

date_format(): 格式化日期
select date_format(‘2020-10-28 12:12:12’,‘yyyy/MM/dd HH:mm:ss’);

常用取整函数
round: 四舍五入
select round(3.14);
select round(3.54);

ceil: 向上取整
select ceil(3.14);
select ceil(3.54);

floor: 向下取整
select floor(3.14);
select floor(3.54);

常用字符串操作函数
upper: 转大写
select upper(‘low’);

lower: 转小写
select lower(‘low’);

length: 长度
select length(“atguigu”);

trim: 前后去空格
select trim(" atguigu ");

lpad: 向左补齐,到指定长度
select lpad(‘atguigu’,9,‘g’);

rpad: 向右补齐,到指定长度
select rpad(‘atguigu’,9,‘g’);

regexp_replace:使用正则表达式匹配目标字符串,匹配成功后替换!
SELECT regexp_replace(‘2020/10/25’, ‘/’, ‘-’);

集合操作
size: 集合中元素的个数
select size(friends) from test3;

map_keys: 返回map中的key
select map_keys(children) from test3;

map_values: 返回map中的value
select map_values(children) from test3;

array_contains: 判断array中是否包含某个元素
select array_contains(friends,‘bingbing’) from test3;

sort_array: 将array中的元素排序
select sort_array(friends) from test3;

grouping_set:多维分析

3、自定义函数

1)Hive 自带了一些函数,比如:max/min 等,但是数量有限,自己可以通过自定义 UDF 来方便的扩展。
2)当 Hive 提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。
3)根据用户自定义函数类别分为以下三种:
(1)UDF(User-Defined-Function)
一进一出
(2)UDAF(User-Defined Aggregation Function)
聚集函数,多进一出
类似于:count/max/min
(3)UDTF(User-Defined Table-Generating Functions)
一进多出
如 lateral view explode()
4)官方文档地址
https://cwiki.apache.org/confluence/display/Hive/HivePlugins
5)编程步骤:
(1)继承 Hive 提供的类
org.apache.hadoop.hive.ql.udf.generic.GenericUDF
org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
(2)实现类中的抽象方法
(3)在 hive 的命令行窗口创建函数
添加 jar
add jar linux_jar_path
创建 function
create [temporary] function [dbname.]function_name AS class_name;
(4)在 hive 的命令行窗口删除函数
drop [temporary] function [if exists] [dbname.]function_name;

4、自定义 UDF 函数

0)需求:
自定义一个 UDF 实现计算给定字符串的长度,例如:
hive(default)> select my_len(“abcd”);
1)创建一个 Maven 工程 Hive
2)导入依赖

<dependencies>
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>3.1.2</version>
</dependency>
</dependencies>

3)创建一个类

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException;
import org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectIn spectorFactory;
/**
* 自定义 UDF 函数,需要继承 GenericUDF 类
* 需求: 计算指定字符串的长度
*/
public class MyStringLength extends GenericUDF {/**** @param arguments 输入参数类型的鉴别器对象* @return 返回值类型的鉴别器对象* @throws UDFArgumentException*/@Overridepublic ObjectInspector initialize(ObjectInspector[] arguments) throws UDFArgumentException {// 判断输入参数的个数if(arguments.length !=1){throw new UDFArgumentLengthException("Input Args Length Error!!!");}// 判断输入参数的类型if(!arguments[0].getCategory().equals(ObjectInspector.Category.PRIMITIVE)){throw new UDFArgumentTypeException(0,"Input Args Type Error!!!");}//函数本身返回值为 int,需要返回 int 类型的鉴别器对象return PrimitiveObjectInspectorFactory.javaIntObjectInspector;}/*** 函数的逻辑处理* @param arguments 输入的参数* @return 返回值* @throws HiveException*/@Overridepublic Object evaluate(DeferredObject[] arguments) throws  HiveException {if(arguments[0].get() == null){return 0;}return arguments[0].get().toString().length();}@Overridepublic String getDisplayString(String[] children) {return "";}
}

4)打成 jar 包上传到服务器/opt/module/data/myudf.jar
5)将 jar 包添加到 hive 的 classpath
hive (default)> add jar /opt/module/data/myudf.jar;
6)创建临时函数与开发好的 java class 关联
hive (default)> create temporary function my_len as “com.xiaoqiu.hive.MyStringLength”;
7)即可在 hql 中使用自定义的函数
hive (default)> select ename,my_len(ename) ename_len from emp;

5、自定义 UDTF 函数

0)需求
自定义一个 UDTF 实现将一个任意分割符的字符串切割成独立的单词,例如:
hive(default)> select myudtf(“hello,world,hadoop,hive”, “,”);
1)代码实现

import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
import org.apache.hadoop.hive.ql.metadata.HiveException;
import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory;
import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector;
import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectIn spectorFactory;
import java.util.ArrayList;
import java.util.List;public class MyUDTF extends GenericUDTF {private ArrayList<String> outList = new ArrayList<>();@Overridepublic StructObjectInspector initialize(StructObjectInspector argOIs) throws UDFArgumentException {//1.定义输出数据的列名和类型List<String> fieldNames = new ArrayList<>();List<ObjectInspector> fieldOIs = new ArrayList<>();//2.添加输出数据的列名和类型fieldNames.add("lineToWord");fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector);return   ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs);}@Overridepublic void process(Object[] args) throws HiveException {//1.获取原始数据String arg = args[0].toString();//2.获取数据传入的第二个参数,此处为分隔符String splitKey = args[1].toString();//3.将原始数据按照传入的分隔符进行切分String[] fields = arg.split(splitKey);//4.遍历切分后的结果,并写出for (String field : fields) {//集合为复用的,首先清空集合outList.clear();//将每一个单词添加至集合outList.add(field);//将集合内容写出forward(outList);}}@Overridepublic void close() throws HiveException {}
}

2)打成 jar 包上传到服务器/opt/module/hive/data/myudtf.jar
3)将 jar 包添加到 hive 的 classpath 下
hive (default)> add jar /opt/module/hive/data/myudtf.jar;
4)创建临时函数与开发好的 java class 关联
hive (default)> create temporary function myudtf as “com.xiaoqiu.hive.MyUDTF”;
5)使用自定义的函数
hive (default)> select myudtf(“hello,world,hadoop,hive”,",");

Hive DQL数据查询函数相关推荐

  1. 认识Hive,以及Hive的数据定义与数据操作,hive的数据查询和hive函数

    认识Hive 为什么要出现hive 前面知识我们讲到mapreudce计算框架,各位需要通过java编码的形式来实现设计运算过程,这对各位的编程能力提出了更高的要求,难道没有门槛更低的方式来实现运算的 ...

  2. hive 如何将数组转成字符串_hive 将hive表数据查询出来转为json对象和json数组输出...

    1.将hive表数据查询出来转为json对象输出apache 一.将查询出来的数据转为一行一行,并指定分割符的数据json 二.使用UDF函数,将每一行数据做为string传入UDF函数中转换为jso ...

  3. MySQL中SQL语句——DQL(数据查询语句)

    前言: 首先对于数据库有一定的了解,会对于Mysql的学习有一定的帮助: 数据库主要分为 DB(数据库),DBMS(数据库管理系统),SQL(结构化查询语言,用于和DBMS通信的语言):这篇要讲的DQ ...

  4. MySQL精讲(一) |DQL数据查询语句全解析

    MySQL精讲系列文章(更新完毕) <MySQL入门必看知识> <MySQL精讲(一) | DQL数据查询语句全解析> <MySQL精讲(二) | DML数据操作语句全解 ...

  5. Hive SQL数据查询基础

    教材第四章Hive SQL数据查询基础实验 提示:如果感觉sogou.500w.utf8文件太大,执行hive命令太耗时间,可以执行以下命令,截取前1万行数据,生成一个新的数据文件sogou.1w.u ...

  6. 3、DQL(数据查询语句)

    目录 01.DQL(数据查询语言) 02.创建学生表(stu).雇员表(emp) 完成数据查询操作 0.创建表:学生表(stu).雇员表(emp) 1.基础查询 2.条件查询 3.模糊查询 4.字段控 ...

  7. MySQL:DQL 数据查询语句盘点

    本篇内容包括:DQL 的简介.SELECT 语句.WHERE 条件语句.JOIN 连接查询(多表查询)和分组.过滤.排序.分页.子查询的使用. 一.DQL 简介 DQL(Data QueryLangu ...

  8. DQL是什么?DQL数据查询操作演示全流程

    DQL英文全称是Data Query Language(数据查询语言),数据查询语言,用来查询数据库中表的记录.查询关键字: SELECT 在一个正常的业务系统中,查询操作的频次是要远高于增删改的,当 ...

  9. 测试工程师mysql数据库基础操作之DQL 数据查询篇

    文章目录 基本使用 where 语句 普通比较运算符 between ... and ...,匹配指定范围 like,模糊匹配 is null,匹配空值 特殊比较运算符 逻辑运算符 单行函数 数字函数 ...

最新文章

  1. P3373 【模板】线段树 2 (未完待续)
  2. 03- 网络最新流行
  3. 连接到多台mysql_Oracle通过dblink连接到多台MySQL
  4. python os.path模块常用方法详解
  5. 没想到熬夜看了场重播!iPhone 11系列正式发布:连价格都被猜到了
  6. 为什么打完篮球后手接触篮球杆会有触电感?
  7. c语言十进制小数转其他进制,只写出了十进制小数转换成二进制的,求二进制小数转十进制的...
  8. AMD CPU驱动被曝漏洞,可使 KASLR崩溃、密码泄露
  9. openstack trove实例状态转换条件--Mitaka版本
  10. Tensorflow Day1
  11. ali 媒体转码签名生成-php
  12. 多家广告聚合平台的混战:国内移动广告聚合平台大盘点
  13. Bootstrap 3 学习
  14. 毕达哥拉斯定理a^2 + b^2 =c^2
  15. 如何访问一个互联网上的xap文件
  16. vt-d 基本操作流程
  17. Android 自定义锁屏(带页面切换)
  18. 基于vue的时间轴轮播图插件 timeline-carousel
  19. JDBC(Java数据库连接) 学习笔记 第四天
  20. MySQL级联优缺点_【Mysql】外键级联与级联的劣势

热门文章

  1. java memento_memento模式_Java中的Memento设计模式-示例教程
  2. 家里网速北京联通100m光纤
  3. html5遮罩层动画,HTML5+CSS3城市场景动画
  4. Derby--jdk自带数据库的使用
  5. JAVA语法糖(全)
  6. 计算机中级培训水平,省审计厅计算机审计中级水平培训 特点突出 效果明显
  7. 解决 Ubuntu 无法播放 MP4 格式视频的问题的办法
  8. 【Modelsim仿真让状态机波形显示状态名字】
  9. WeiFenLuo.winFormsUI.Docking.dll的使用(停靠效果)
  10. 办理劳务资质要多少钱?关键看办理方法