Hive概述

        Apache Hive是构建在Hadoop之上的数据仓库,支持通过SQL接口查询分析存储在Hadoop中的数据。

在Hive出现之前,数据分析人员需要编写MapReduce作业分析Hadoop中的数据,这种方式繁琐低效,对数据分析人员不友好,因为数据分析人员大部分比较精通SQL,但是编程功底较浅。

在这种背景下,2007年Facebook在论文Hive-A Warehousing Solution Over a Map-Reduce
中阐述了Hive的架构:Hive提供了一个SQL解析引擎hiveserver,客户端向hiveserver发送SQL请求,hiveserver将SQL翻译成MapReduce作业并提交到Hadoop集群上运行,最终将运行结果返回给客户端。

客户端一般使用Hive的JDBC驱动,连接Hiveserver2,Hiveserver2是采用Thrift RPC框架实现的JDBC服务端。客户端将SQL语句发送给Hiveserver2,Hiveserver2进行SQL的解析、编译、优化,这个过程中Hiveserver2会跟Hive Metastore服务通信以得到数据库表的元数据,Metastore服务会将数据库的元数据信息存储到数据库中。最终Hiveserver2将SQL编译为MapReduce作业运行在MapReduce/Tez/Spark分布式计算引擎上。

数据脱敏概述

数据脱敏,指对某些敏感信息通过脱敏规则进行数据的变形,实现敏感隐私数据的可靠保护。这样就可以在开发、测试和其它非生产环境以及外包环境中安全地使用脱敏后的真实数据集

百度百科

数据脱敏系统,按照使用场景的不同,可以分为动态脱敏
系统和静态脱敏
系统。

动态脱敏系统一般作为代理,部署在应用系统和数据库之间,应用连接动态脱敏系统,动态脱敏连接数据库,动态脱敏一般通过SQL改写
或者结果集改写
方式遮蔽、仿真、替换敏感数据,从而达到去标识化的目的。

采用SQL改写
方式实现的动态脱敏系统的架构如下图所示

  1. 动态脱敏系统作为代理坐落在客户端和数据库之间,客户端向动态脱敏系统发送SQL语句

  2. 动态脱敏系统拦截网络流量,解析数据库协议,得到SQL语句,最后查询脱敏规则库

  3. 动态脱敏根据脱敏规则改写SQL语句并将改写后的SQL语句发送给数据库

  4. 数据库执行改写后的SQL语句并返回

  5. 客户端拿到脱敏后的数据

采用结果集改写
方式实现的动态脱敏系统的架构如下图所示

  1. 动态脱敏系统作为代理坐落在客户端和数据库之间,客户端向动态脱敏系统发送SQL语句

  2. 动态脱敏系统将SQL语句原样转发给数据库

  3. 数据库执行SQL语句并返回结果集给动态脱敏系统

  4. 动态脱敏系统查询脱敏规则库,改写结果集

  5. 客户端拿到脱敏后的数据

静态脱敏系统,一般不会坐落在应用和数据库之间,而是作为单独的系统存在。静态脱敏一般应用于离线场景,比如测试人员需要一批测试数据,这种场景下只需在静态脱敏系统中新建脱敏任务,指定源数据库/文件的信息和目标数据库/文件的信息,指定要脱敏的源表和限定条件,静态脱敏系统从源端读取数据,应用脱敏规则后,将脱敏后的数据存储到目标端,整个过程要保证脱敏前的原始数据不落地。

安装Hive

下面简单介绍Hive的安装部署,省略了部分排错过程,排错过程读者可以亲自体验,以加深理解。

  1. Hive Metastore服务需要将Hive的元数据存储到数据库中,自行安装mariadb赋予权限

    create database hive;
    grant all on *.* to root@'%' identified by 'root';
    flush privileges;
  2. 下载hive并进行解压

    wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz
    tar zxvf apache-hive-3.1.2-bin.tar.gz
    
  3. 进入apache-hive-3.1.2-bin
    目录,准备配置文件

    cp hive-env.sh.template hive-env.sh
    mv hive-default.xml.template hive-default.xml
    mv hive-log4j2.properties.template hive-log4j2.properties
    touch hive-site.xml
  4. 在/etc/profile新增环境变量

    export HIVE_HOME=/software/apache-hive-3.1.2-bin
    export PATH=$PATH:$HIVE_HOME/bin
  5. 修改$HIVE_HOME/conf
    目录下的hive-env.sh
    新增如下内容

    HADOOP_HOME=/software/hadoop-3.2.2
  6. 将MySQL的JDBC驱动mysql-connector-java-5.1.47.jar放到$HIVE_HOME/lib目录下

  7. 修改$HIVE_HOME/conf目录下的hive-site.xml,新增如下内容

    <configuration>
    <property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://hadoop02.bigdata.com:3306/hive?createDatabaseIfNotExist=true</value>
    </property>
    <property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value>
    </property>
    <property><name>javax.jdo.option.ConnectionUserName</name><value>root</value>
    </property>
    <property><name>javax.jdo.option.ConnectionPassword</name><value>root</value>
    </property>
    <property><name>hive.server2.thrift.bind.host</name><value>hadoop03.bigdata.com</value>
    </property>
    <property><name>hive.metastore.uris</name><value>thrift://hadoop03.bigdata.com:9083</value>
    </property>
    <property><name>hive.metastore.event.db.notification.api.auth</name><value>false</value>
    </property>
    <property><name>hive.execution.engine</name><value>mr</value>
    </property>
    </configuration>
  8. 修改$HADOOP_HOME/etc/hadoop目录下的core-site.xml
    新增如下内容,分发到集群各个节点,并重启hadoop

    <property><name>hadoop.proxyuser.hive.hosts</name><value>*</value>
    </property>
    <property><name>hadoop.proxyuser.hive.groups</name><value>*</value>
    </property>
  9. 新建hive
    用户,后续使用hive
    用户启动hive的hiveserver2和metastore进程

    useradd hive -g hadoop
    passwd hive
    chown -R hive:hadoop apache-hive-3.1.2-bin
  10. 切换到hive
    用户,初始化metastore数据库

    su - hive
    bin/schematool -dbType mysql -initSchema
  11. 后台启动hive的hiveserver2metastore服务

    nohup bin/hive --service metastore > logs/metastore.log 2>&1 &
    nohup bin/hive --service hiveserver2 > logs/hiveserver2.log 2>&1 &

安装ranger-hive插件

  1. 将编译好的ranger-2.1.0-hive-plugin.tar.gz解压

    tar zxvf ranger-2.1.0-hive-plugin.tar.gz
  2. 修改ranger-2.1.0-hive-plugin目录下的install.properties文件,新增

    POLICY_MGR_URL=http://hadoop02.bigdata.com:6080
    REPOSITORY_NAME=hive
    COMPONENT_INSTALL_DIR_NAME=/software/apache-hive-3.1.2-bin/
  3. 安装ranger的hive插件

    ./enable-hive-plugin.sh
  4. 重启hive并登陆到ranger-admin管理控制台中

  5. 在ranger-admin中新增hive服务,填写如下必要信息

  6. 点击Test Connection
    按钮,确定可以连接成功

Hive脱敏实验

  1. 使用beeline
    通过jdbc连接hiveserver2

    beeline -u jdbc:hive2://hadoop03.bigdata.com:10000 -n hive
  2. 新建测试数据库、数据表,并插入测试数据

    create database talkingbigdata;
    use talkingbigdata;
    create table employee(id int,name string,salary double) stored as orc tblproperties('transactional'='true');
    insert into employee values(4,'tomtomtomtomtom',100),(5,'jackjackjackjack',200),(6,'lilylilylilylily',400);
  3. 登陆ranger-admin
    ,点击hive
    服务,打开的页面的Masking
    页签可以配置脱敏规则

  4. 点击Add New Policy
    ,在打开的页面中新增脱敏规则,对talkingbigdata数据库的employee表的name字段进行脱敏,只显示前四位,其余位用星号代替

    从上图中可以看出ranger针对hive的脱敏,可以针对特定的数据库、表、字段设定脱敏规则,ranger支持的脱敏规则还是比较少的,包括:除后4位外全部用星号替换、除前4位外全部用星号代替、哈希、日期只显示年。此外,还支持自定义脱敏算法。

  5. beeline
    中查询数据,验证是否可以正常脱敏

  6. 实验成功。当然还有很多细节有待发现,希望爱探索的你,接下来自己去探索吧。

Hive结合Apache Ranger进行数据脱敏相关推荐

  1. Apache Ranger、业务背景、现状与需求、大数据安全组件介绍与对别、系统架构及实践、ranger admin、UserSync、plugin、权限模型、权限实现等

    26.2.1业务背景 26.2.1.1现状&&需求 26.2.2大数据安全组件介绍与对比 26.2.2.2 Apache Sentry 26.2.2.3 Apache Ranger 2 ...

  2. 大数据权限管理组件Apache Ranger简介和原理

    大数据权限管理组件Apache Ranger简介和原理 一.什么是Ranger 二.Ranger的管理页面和Ranger支持的框架 三.Ranger的目标 四.Ranger架构 五.Ranger的工作 ...

  3. Apache Ranger初识

    1.Apache ranger简介 Apache ranger是一个Hadoop集群权限框架,提供操作.监控.管理复杂的数据权限,它提供一个集中的管理机制,管理基于yarn的Hadoop生态圈的所有数 ...

  4. Apache Ranger源码编译及使用

    Ranger源码编译.使用手册 1 Ranger简介 Apache Ranger提供一个集中式安全管理框架,它可以对Hadoop生态的组件如Hive,Hbase进行细粒度的数据访问控制.通过操作Ran ...

  5. 使用 Apache Atlas 进行数据治理

    本文由 网易云发布. 作者:网易/刘勋(本篇文章仅限知乎内部分享,如需转载,请取得作者同意授权.) 面对海量且持续增加的各式各样的数据对象,你是否有信心知道哪些数据从哪里来以及它如何随时间而变化?采用 ...

  6. hive插件 ranger_Apache Ranger及Hive权限控制

    一.Ranger概述 1.Ranger简介 Apache Ranger提供一个集中式安全管理框架, 并解决授权和审计.它可以对Hadoop生态的组件如HDFS.Yarn.Hive.Hbase等进行细粒 ...

  7. Apache Ranger——Hadoop ACL控制工具

    本文主要通过ranger在hdfs acl中的应用以及原理介绍一下ranger的使用,另外介绍一下实际使用过程中碰到的问题. 上篇文章回顾:时间服务器-NTP 目前公司内部大多通过数据工场来管理hdf ...

  8. 数据脱敏小探——数据脱敏技术概述

    转载请注明出处:http://blog.csdn.net/dongdong9223/article/details/81032427 本文出自[我是干勾鱼的博客] 1 数据脱敏的定义 常用的安全防护技 ...

  9. Apache ranger 简介、原理、安装部署

    一.Ranger简介 Apache Ranger提供一个集中式安全管理框架, 并解决授权和审计.它可以对Hadoop生态的组件如HDFS.Yarn.Hive.Hbase等进行细粒度的数据访问控制.通过 ...

最新文章

  1. 2021-2027年中国医联体(医疗联合体)建设深度调研及投资前景预测报告
  2. 蓝桥杯 兰顿蚂蚁(模拟)
  3. go使用SQLite数据库
  4. 一文了解HCIA考试相关问题
  5. jQuery笔记---选择器
  6. Ruby. Vs . Python
  7. 原生希望原生JavaScript开篇
  8. 但是我不知道什么是容器
  9. 【报告分享】华为-5G时代运营商数据和存储架构白皮书.pdf(附下载链接)
  10. PKMS的queryIntentActivities分析
  11. java重载父类方法_子类重载父类方法
  12. 简单的Python爬虫刷访问量程序
  13. linux 内核---------董昊 ( Robin Dong ) and OenHan
  14. 学成在线-第13天-讲义-在线学习 HLS
  15. centos c++ mysql_腾讯云Linux CentOS C++连接MySQL
  16. 国标GB/T28181视频流媒体网页无插件直播服务4G摄像头无插件直播国标GB28181协议注册、心跳和注销协议说明介绍
  17. 素描学习入门零基础学习静物素描的几种方法
  18. 视觉应用工程师-环境安装教学视频-Mac系统其他操作
  19. 在线计算机一级考试模拟题,计算机一级wpsoffice精选模拟试题及答案.doc
  20. 微软和NBC分道扬镳,MSNBC.com正式更名

热门文章

  1. 矽昌通信携手明夷科技联合发布Wi-Fi 6 AX3000 AP路由芯片
  2. 第三部分:填写志愿的思路
  3. ChatGPT编程能力实证研究
  4. Windows 7下搭建本地Discuz论坛
  5. 论脑电波、磁场、鬼三者之关系
  6. 安卓电视大屏显示UI
  7. 软件保护工具VMProtect用户手册——核心处理的5个事件设置
  8. oracle rac 集群配置,ORACLE RAC集群配置管理工具-SRVCTL
  9. 申请uniapp离线打包时的AppKey
  10. 加速度传感器BMA250E的驱动