目录

  • 1 Apache Hue简介
  • 2 Apache Hue 介绍
    • 2.1 Hue 是什么
    • 2.2 Hue 能做什么
    • 2.3 Hue 的架构
  • 3 Hue 的安装
    • 3.1 上传解压安装包
    • 3.2 编译初始化工作
      • 3.2.1 联网安装各种必须的依赖包
      • 3.2.2 Hue 初始化配置
      • 3.2.3 创建 mysql 中 Hue 使用的 DB
    • 3.3 编译 Hue
    • 3.4 启动 Hue、Web UI 访问
  • 4 Hue 与软件的集成
    • 4.1 Hue 集成 HDFS
      • 4.1.1 修改 core-site.xml 配置
      • 4.1.2 修改 hdfs-site.xml 配置
      • 4.1.3 修改 hue.ini
      • 4.1.4 重启 HDFS、Hue
    • 4.2. Hue 集成 YARN
      • 4.2.1 修改 hue.ini
      • 4.2.2 开启 yarn 日志聚集服务
      • 4.2.3 重启 Yarn、Hue
    • 4.3 Hue 集成 Hive
      • 4.3.1 修改 Hue.ini
      • 4.3.2 启动 Hive 服务、重启 hue
    • 4.4 Hue 集成 Mysql
      • 4.4.1 修改 hue.ini
      • 4.4.2 重启 hue
    • 4.5 Hue 集成 Oozie
    • 4.6 Hue 集成 Hbase
      • 4.6.1 修改 hbase 配置
      • 4.6.2 修改 hadoop 配置
      • 4.6.3 修改 Hue 配置
      • 4.6.4 启动 hbase(包括 thrift 服务)、hue
    • 4.7 Hue 集成 Impala
      • 4.7.1 修改 Hue.ini
      • 4.7.2 重启 Hue

1 Apache Hue简介

hue是一个用于数据仓库的开源sql工作台,是一个成熟的开源SQL助手,通过使用Hue我们可以在浏览
器端的Web控制台上进行交互来处理数据,支持的环境有: Hadoop、Hive、HBase、MapReduceJob、Solr、JDBC相关的数据 等等。

2 Apache Hue 介绍

2.1 Hue 是什么

HUE=Hadoop User ExperienceHue 是一个开源的 Apache Hadoop UI 系统,由 Cloudera Desktop 演化而来,最后 Cloudera 公司将其贡献给 Apache 基金会的 Hadoop 社区,它是基于Python Web 框架 Django 实现的。通过使用 Hue,可以在浏览器端的 Web 控制台上与 Hadoop 集群进行交互,来分析处理数据,例如操作 HDFS 上的数据,运行 MapReduce Job,执行 Hive的 SQL 语句,浏览 HBase 数据库等等。

2.2 Hue 能做什么

  1. 访问 HDFS 和文件浏览
  2. 通过 web 调试和开发 hive 以及数据结果展示
  3. 查询 solr 和结果展示,报表生成
  4. 通过 web 调试和开发 impala 交互式 SQL Query
  5. spark 调试和开发
  6. Pig 开发和调试
  7. oozie 任务的开发,监控,和工作流协调调度
  8. Hbase 数据查询和修改,数据展示
  9. Hive 的元数据(metastore)查询
  10. MapReduce 任务进度查看,日志追踪
  11. 创建和提交 MapReduce,Streaming,Java job 任务
  12. Sqoop2 的开发和调试
  13. Zookeeper 的浏览和编辑数据库(MySQL,PostGres,SQlite,Oracle)的查询和展示

2.3 Hue 的架构

Hue 是一个友好的界面集成框架,可以集成各种大量的大数据体系软件框架,通过一个界面就可以做到查看以及执行所有的框架。 Hue 提供的这些功能相比 Hadoop 生态各组件提供的界面更加友好,但是一
些需要 debug 的场景可能还是要使用原生系统才能更加深入的找到错误的原因。

3 Hue 的安装

3.1 上传解压安装包

Hue 的安装支持多种方式,包括 rpm 包的方式进行安装、tar.gz 包的方式进行安装以及 cloudera manager 的方式来进行安装等,我们这里使用 tar.gz 包的方式来进行安装。 Hue 的压缩包的下载地址:

http://archive.cloudera.com/cdh5/cdh/5/

我们这里使用的是 CDH5.14.0 这个对应的版本,具体下载地址为

http://archive.cloudera.com/cdh5/cdh/5/hue-3.9.0-cdh5.14.0.tar.gz
cd /export/servers/
tar -zxvf hue-3.9.0-cdh5.14.0.tar.gz

3.2 编译初始化工作

3.2.1 联网安装各种必须的依赖包

yum install -y asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gccc++ krb5-devel libffi-devel libxml2-devel libxslt-devel make openldap-devel
python-devel sqlite-devel gmp-devel

3.2.2 Hue 初始化配置

cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf
vim hue.ini
#通用配置
[desktop]
secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5o
http_host=node-1
is_hue_4=true
time_zone=Asia/Shanghai
server_user=root
server_group=root
default_user=root
default_hdfs_superuser=root
#配置使用 mysql 作为 hue 的存储数据库,大概在 hue.ini 的 587 行左右
[[database]]
engine=mysql
host=node-1
port=3306
user=root
password=Hadoop
name=hue

3.2.3 创建 mysql 中 Hue 使用的 DB

create database hue default character set utf8 default
collate utf8_general_ci;

3.3 编译 Hue

cd /export/servers/hue-3.9.0-cdh5.14.0
make apps

编译成功之后,会在 hue 数据库中创建许多初始化表。

3.4 启动 Hue、Web UI 访问

cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor

页面访问路径:

http://node-1:8888

第一次访问的时候,需要设置超级管理员用户和密码。记住它。
若想关闭 Hue ,直接在窗口 ctrl+c 即可。

4 Hue 与软件的集成

4.1 Hue 集成 HDFS

注意修改完 HDFS 相关配置后,需要把配置 scp 给集群中每台机器,重启 hdfs
集群。

4.1.1 修改 core-site.xml 配置

<!—允许通过 httpfs 方式访问 hdfs 的主机名 -->
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<!—允许通过 httpfs 方式访问 hdfs 的用户组 -->
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>

4.1.2 修改 hdfs-site.xml 配置

<property><name>dfs.webhdfs.enabled</name><value>true</value>
</property>

4.1.3 修改 hue.ini

cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf
vim hue.ini
[[hdfs_clusters]][[[default]]]
fs_defaultfs=hdfs://node-1:9000
webhdfs_url=http://node-1:50070/webhdfs/v1
hadoop_hdfs_home= /export/servers/hadoop-2.7.5
hadoop_bin=/export/servers/hadoop-2.7.5/bin
hadoop_conf_dir=/export/servers/hadoop-2.7.5/etc/hadoop

4.1.4 重启 HDFS、Hue

start-dfs.sh
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor

4.2. Hue 集成 YARN

4.2.1 修改 hue.ini

[[yarn_clusters]][[[default]]]resourcemanager_host=node-1resourcemanager_port=8032submit_to=Trueresourcemanager_api_url=http://node-1:8088history_server_api_url=http://node-1:19888

4.2.2 开启 yarn 日志聚集服务

MapReduce 是在各个机器上运行的, 在运行过程中产生的日志存在于各个
机器上,为了能够统一查看各个机器的运行日志,将日志集中存放在 HDFS 上,
这个过程就是日志聚集。

<property> ##是否启用日志聚集功能。
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property> ##设置日志保留时间,单位是秒。
<name>yarn.log-aggregation.retain-seconds</name>
<value>106800</value>
</property>

4.2.3 重启 Yarn、Hue

build/env/bin/supervisor

4.3 Hue 集成 Hive

如果需要配置 hue 与 hive 的集成,我们需要启动 hive 的 metastore 服务以 及 hiveserver2 服务(impala 需要 hive 的 metastore 服务,hue 需要 hvie 的
hiveserver2 服务)。

4.3.1 修改 Hue.ini

[beeswax]hive_server_host=node-1hive_server_port=10000hive_conf_dir=/export/servers/hive/confserver_conn_timeout=120auth_username=rootauth_password=123456
[metastore]#允许使用 hive 创建数据库表等操作enable_new_create_table=true

4.3.2 启动 Hive 服务、重启 hue

去 node-1 机器上启动 hive 的 metastore 以及 hiveserver2 服务

cd /export/servers/hive
nohup bin/hive --service metastore &
nohup bin/hive --service hiveserver2 &

重新启动 hue。

cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor

4.4 Hue 集成 Mysql

4.4.1 修改 hue.ini

需要把 mysql 的注释给去掉。 大概位于 1546 行
[[[mysql]]]nice_name="My SQL DB"engine=mysqlhost=node-1port=3306user=rootpassword=hadoop

4.4.2 重启 hue

cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor

4.5 Hue 集成 Oozie

大数据Oozie任务调度

4.6 Hue 集成 Hbase

4.6.1 修改 hbase 配置

在 hbase-site.xml 配置文件中的添加如下内容,开启 hbase thrift 服务。
修改完成之后 scp 给其他机器上 hbase 安装包。

<property>
<name>hbase.thrift.support.proxyuser</name>
<value>true</value>
</property>
<property>
<name>hbase.regionserver.thrift.http</name>
<value>true</value>
</property>

4.6.2 修改 hadoop 配置

在 core-site.xml 中确保 HBase 被授权代理,添加下面内容。
把修改之后的配置文件 scp 给其他机器和 hbase 安装包 conf 目录下。

<property>
<name>hadoop.proxyuser.hbase.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hbase.groups</name>
<value>*</value>
</property>

4.6.3 修改 Hue 配置

[hbase]# Comma-separated list of HBase Thrift servers for clusters in the format of
'(name|host:port)'.# Use full hostname with security.# If using Kerberos we assume GSSAPI SASL, not PLAIN.hbase_clusters=(Cluster|node-1:9090)# HBase configuration directory, where hbase-site.xml is located.hbase_conf_dir=/export/servers/hbase-1.2.1/conf# Hard limit of rows or columns per row fetched before truncating.## truncate_limit = 500# 'buffered' is the default of the HBase Thrift Server and supports security.# 'framed' can be used to chunk up responses,# which is useful when used in conjunction with the nonblocking server in Thrift.
thrift_transport=buffered

4.6.4 启动 hbase(包括 thrift 服务)、hue

需要启动 hdfs 和 hbase,然后再启动 thrift。
start-dfs.sh
start-hbase.sh
hbase-daemon.sh start thrift
重新启动 hue。
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor

4.7 Hue 集成 Impala

4.7.1 修改 Hue.ini

[impala]server_host=node-3server_port=21050impala_conf_dir=/etc/impala/conf

4.7.2 重启 Hue

cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor

Hive集成Hue安装部署相关推荐

  1. Hive环境的安装部署(完美安装)(集群内或集群外都适用)(含卸载自带mysql安装指定版本)...

    Hive环境的安装部署(完美安装)(集群内或集群外都适用)(含卸载自带mysql安装指定版本) Hive 安装依赖 Hadoop 的集群,它是运行在 Hadoop 的基础上. 所以在安装 Hive 之 ...

  2. 【Rhapsody学习笔记(二)】Linux环境下的Rhapsody集成引擎安装部署

    Rhapsody的安装部署包括Rhapsody引擎的部署(服务端),以及Rhapsody IDE(客户端)的安装部署,其中,IDE可以安装在多台不同的windows客户机上,本文仅介绍CentOS7环 ...

  3. 教小白白Hue安装部署

    1. 写在前面 工欲善其事,必先利其器,网上教程往往让你安装一半丈二和尚摸不着头脑 本文包含安装部署及遇到的错误排错思路,其他方法安装遇到错误亦可能可在本文找到答案 本文安装环境CentOS 7 安装 ...

  4. centos8离线安装Apache_疯狂Hive之Hivean安装部署与交互方式(一)

    Hive简介 什么是Hive Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能. 本质是将SQL转换为MapReduce程序. 主要用途: ...

  5. hive on tez安装部署、配置及tez-ui配置

    目录 Tez官网:http://tez.apache.org/ 下载开始下载安装部署Tez 下载解压 简单配置 运行tez的实例mr程序,验证是否安装成功: 设置tez-ui 先安装部署Tomcat ...

  6. Hive架构及安装部署(远程数据库模式MySQL)

    hive架构 hive部署 #hive安装 https://cwiki.apache.org/confluence/display/Hive/AdminManual+Metastore+Adminis ...

  7. hive集成spark和mysql

    参考:http://ihoge.cn/2018/HiveSpark.html 一.Hive安装 1.Hive简介 ​ Hive是Facebook开发的构建于Hadoop集群之上的数据仓库应用,可以将结 ...

  8. 持续集成mysql_DevOps安装、部署持续集成

    1.重启docker服务,开启iptables转发功能 # systemctl start docker # vi /etc/sysctl.conf # sysctl -p [root@localho ...

  9. HDP安全之集成kerberos/LDAP、ranger;安装部署kerberos;安装Knox;安装LDAP;启动LDAP;验证Knox网关

    5.HDP安全之集成kerberos/LDAP.ranger 集成HDP kerberos /LDAP/ranger之前必须先了解为什么要这样做,kerberos/LDAP是用来做身份认证的,rang ...

最新文章

  1. 用户家目录下的隐藏文件
  2. transition过渡规定慢速开始,然后变快,然后慢速结束的过渡效果(cubic-bezier(0.25,0.1,0.25,1))。...
  3. 100c之37:爱因斯坦问题
  4. Ext.Net中常用的验证
  5. 13.4.虚拟化工具--jmap详解
  6. Squash my last X commits together using Git | Git 如何合并历史提交记录?
  7. 高等数学下-赵立军-北京大学出版社-题解-练习10.1
  8. SecureCRT 中文乱码问题
  9. 嵌入式算法-傅里叶变换算法
  10. opengl学习笔记(四)
  11. jquery 加载中_在 vue 中使用 ztree
  12. 2019 ChinaJoy:游戏出海成热点
  13. 公司内网环境下部署流量监控服务器的初步方案
  14. android 加载动画下载,AVLoadingIndicatorView
  15. 【树莓派不吃灰】基础篇⑲ 搭建usb摄像头MJPG-streamer图片流监控,支持远程视频监控访问
  16. Redis trouble15 -- unable to failover:check ‘cluster-replica-validity-factor‘ configuration option
  17. 服务器的系统日志路径,DirectAdmin 日志路径各种系统中查看方法Windows服务器操作系统 -电脑资料...
  18. connect的中文意思是什么_connect的用法和短语例句意思是什么
  19. 数据结构笔记10-图的逻辑结构
  20. 【强化学习】双深度Q网络(DDQN)求解倒立摆问题 + Pytorch代码实战

热门文章

  1. R语言logistic回归交互项(交互作用)的可视化分析3
  2. 崩溃的win10文件夹右键卡死解决方法
  3. 关于Installation failed的情况及解决方案
  4. mac电脑安装adb工具
  5. Unity UGUI如何计算drawcall
  6. tomcat启动失败的3种解决办法
  7. linux-top命令查看内存CPU
  8. c++容器使用50条总结
  9. 曼哈顿距离与切比雪夫距离的互化
  10. R语言入门基础知识点笔记——向量