Hadoop平台组件部署

目录

  1. 引言 5
    1.1. 目的 5
    1.2. 术语与缩写解释 6
    1.3. 参考资料 6
  2. 系统配置 6
    2.1. 运行环境 6
    2.2. 硬件配置 7
    2.3. 硬件安排 7
    2.4. 配置架构图 7
    2.5. 平台组件介质 7
    2.6. 第三方依赖包 8
  3. 组件部署 8
    3.1. 部署说明 8
    3.2. 部署要点 8
    3.3. 环境配置 8
    3.3.1. 主机免密登陆配置 8
    3.3.2. 主机名配置 9
    3.3.3. HOSTS配置 10
    3.3.4. 关闭防火墙 10
    3.3.5. NTP时钟源配置 10
    3.3.6. 时间同步配置 11
    3.3.7. 关闭selinux 11
    3.3.8. 关闭THP特性 11
    3.3.9. ulimit配置 12
    3.3.10. yum源配置 13
    3.4. JDK部署 15
    3.4.1. JDK安装介质说明 15
    3.4.2. JDK配置文件说明 15
    3.4.3. JDK部署步骤 15
    3.5. Kerberos部署 16
    3.5.1. 服务端、客户端安装 16
    3.5.2. 配置文件修改 17
    3.5.3. 创建Kerberos数据库 20
    3.5.4. 创建超级管理用户root及kadm5.keytab文件 21
    3.5.5. 新增配置:kadm5.acl 22
    3.5.6. 主备配置 23
    3.6. ambari部署 25
    3.6.1. 安装ambari服务端 25
    3.6.2. 安装ambari客户端 26
    3.6.3. ambari-agent配置 27
    3.6.4. ambari-server设置 27
    3.6.5. ambari-server启动 28
    3.6.6. ambari-agent启动 28
    3.7. hadoop部署 29
    3.7.1. 安装前检查 29
    3.7.2. Hadoop部署步骤 30
    3.7.3. 启用NameNode高可用 40
    3.7.4. 启用ResourceManager高可用 48
    3.7.5. 启用Kerberos 49
  4. 组件操作 53
    4.1. 组件部署清单 53
    4.2. 组件优化 53
    4.3. 组件启动 53
    4.4. 组件停止 55
  5. 部署问题 57

1.引言

1.1.目的
我们所说的大数据就是数据量的庞大,数据的种类繁杂多样化,数据的飞快的变化,数据的真假存疑,Hadoop正好可以处理这方面的数据。
1.2.术语与缩写解释
缩写、术语 解 释
HDFS Hadoop分布式文件系统(Hadoop Distributed File System ),分布式文件系统,提供了高吞吐量的数据访问。
MapReduce 基于YARN的大数据集的并行处理系统。
YARN Hadoop集群资源管理框架(Yet Another Resource Negotiator),用于作业调度和集群资源管理。
HBase 可扩展的分布式列式数据库,支持大表的结构化存储。
ZooKeeper 提供Hadoop集群高性能的分布式的协调服务。
Kerberos 一种计算机网络授权协议,用来在非安全网络中,对个人通信以安全的手段进行身份认证。
1.3.参考资料

2.系统配置

2.1.运行环境
推荐使用64位Centos7.4操作系统,开启超线程,关闭swap。
超线程需要CPU支持,在bios中设置。
关闭swap命令:swap off,永久关闭需要在/etc/fstab注释掉swap那一行。
2.2.硬件配置
类型 cpu 内存 硬盘 IP
虚拟机 1 core 8G 100G 192.168.170.100
虚拟机 1 core 8G 100G 192.168.170.101
虚拟机 1 core 8G 100G 192.168.170.102
2.3.硬件安排

2.4.配置架构图

2.5.平台组件介质
序号 软件名称 安装包名称== (包我就不分享了 你们可以自行换包 换版本 ) ==
1 Ambari ambari-2.5.0.3-centos7.tar.gz
2 HDP HDP-2.5.3.0-centos7-rpm.tar.gz
3 HDP-UTILS HDP-UTILS-1.1.0.21-centos7.tar.gz
4 JDK jdk-8u91-linux-x64.tar.gz
2.6.第三方依赖包
序号 软件名称 操作命令
1 snappy-devel-1.1.0-3.el7.x86_64.rpm、libtirpc-devel-0.2.4-0.10.el7.x86_64.rpm(ambari2.5需要安装libtirpc-devel) rpm -ivh 包名

3.组件部署

3.1.部署说明
主要部署的组件包括HDFS、MapReduce、YARN、HBase、ZooKeeper

3.2.部署要点
不准使用lvm逻辑卷管理,系统盘单独挂载,/tmp,/home,/var等目录不单独挂载空间;每块硬盘挂载到单独目录下(/data1,/data2,…/datan),文件系统采用xfs

3.3.环境配置
3.3.1.主机免密登陆配置
root 用户 默认路径下执行如下命令:
ssh-keygen -t rsa -P ‘’ # 生成秘钥文件 (提示后直接回车)

设置权限

chmod 700 .ssh
cd .ssh
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 authorized_keys
authorized_keys文件拷贝到各个主机

scp /root/.ssh/authorized_keys xxx.xxx.xx.xxx:/root/.ssh/.(如果没有该目录,则需要手动创建)
各主机执行命令:hostnamectl --static set-hostname 主机名(无需重启,注销重新登陆即可生效)
scp authorized_keys root@192.168.220.132:/root/.ssh/.

注:主机名需要按照集团规范命令
3.3.2.HOSTS配置
所有主机/etc/hosts均需要添加
3.3.3.关闭防火墙
所有主机执行命令:

192.168.220.130   hadoop1.dcs.com    hadoop1
192.168.220.131  hadoop2.dcs.com     hadoop2
192.168.220.132  hadoop3.dcs.com     hadoop3
systemctl disable NetworkManager
systemctl stop NetworkManager
systemctl disable firewalld
systemctl stop firewalld

3.3.4.NTP时钟源配置
如已有NTP时钟源可忽略此步骤
挑选一台主机安装ntp服务:rpm -ivh ntp-4.2.6p5-22.el7.centos.x86_64.rpm
vi /etc/ntp.conf
追加内容如下
restrict 0.0.0.0 mask 0.0.0.0 nomodify notrap noquery
restrict 172.16.0.0 mask 255.255.0.0 nomodify
restrict 127.0.0.1
server 127.127.1.0
fudge 127.127.1.0 stratum 8
driftfile /var/lib/ntp/drift
keys /etc/ntp/keys
statsdir /var/log/ntp/
logfile /var/log/ntp/ntp.log
启动并设置开机启动:
systemctl enable ntpd.service
systemctl start ntpd.service
3.3.5.时间同步配置
定时同步:所有节点全执行
ntpdate 192.168.220.130 echo “server 192.168.220.130 iburst” >>/etc/chrony.conf
systemctl restart chronyd
systemctl enable chronyd
timedatectl
3.3.6.关闭selinux
所有主机执行
vi /etc/selinux/config
设置
SELINUX=disabled
3.3.7.关闭THP特性
所有主机执行
vi /etc/rc.local
追加以下内容

echo never > /sys/kernel/mm/transparent_hugepage/defrag
echo never > /sys/kernel/mm/transparent_hugepage/enabled

执行 source /etc/rc.local 生效
3.3.8.ulimit配置
所有主机均需要配置
新增配置文件:
vi /etc/security/limits.d/hbase.nofiles.conf
以下内容加入到该文件中

hbase - nofile 327680

设定所有用户的ulimit:
vi /etc/security/limits.conf
以下内容添加到该文件中

* - nofile 65536
* - nproc 16384

vi /etc/security/limits.d/20-nproc.conf
以下内容添加到该文件中

*          soft    nproc     16384
root       soft    nproc     unlimited

如果不能生效的话
vi /etc/profile

ulimit -n 65535
ulimit -u 16384

执行 source /etc/profile 生效
基础环境配置完成后重启主机
3.3.9.yum源配置
安装http服务:
rpm -ivh httpd-2.4.6-40.el7.centos.x86_64.rpm
systemctl start httpd
systemctl enable httpd
解压ambari-2.5.0.3-centos7.tar.gz、HDP-2.5.3.0-centos7-rpm.tar.gz、HDP-UTILS-1.1.0.21-centos7.tar.gz、CentOS系统包到/var/www/html下
/var/www/html新建一个centos7目录
CentOS 需要挂载到目录下
新增配置文件:
vi /etc/yum.repos.d/ambari.repo

[HDP]
name=HDP
baseurl=http://172.16.1.1/HDP-2.5.3.0-37/centos7
gpgcheck=1
gpgkey=http://172.16.1.1/HDP-2.5.3.0-37/centos7/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1
[HDP-UTILS]
name=HDP-UTILS
baseurl=http://172.16.1.1/HDP-UTILS-1.1.0.21
gpgcheck=1
gpgkey=http://172.16.1.1/HDP-UTILS-1.1.0.21/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1
[Ambari]
name=Ambari
baseurl=http://172.16.1.1/AMBARI-2.5.0.3/centos7/2.4.2.0-136
gpgcheck=1
gpgkey=http://172.16.1.1/AMBARI-2.5.0.3/centos7/2.4.2.0-136/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1
yum clean all
yum makecache

执行命令:yum list 验证是否可用

如果只读到CentOS 源,vi ~/.bash_profile 注释alias yum=‘yum --disablerepo=* --enablerepo=c6-media’
然后拷贝配置文件到各个服务器
scp /etc/yum.repos.d/ambari.repo hadoop2:/etc/yum.repos.d/
3.4.JDK部署
3.4.1.JDK安装介质说明
建议使用1.8以上版本
3.4.2.JDK配置文件说明
需添加环境变量设置到/etc/profile
3.4.3.JDK部署步骤
将jdk-8u91-linux-x64.tar.gz上传到各个主机
然后解压:tar -zxvf jdk-8u91-linux-x64.tar.gz -C /opt
vi /etc/profile
添加以下内容到该文件中
/opt/jdk1.8.0_162

export JAVA_HOME=/opt/jdk1.8.0_91
export PATH=$JAVA_HOME/bin:$PATH

添加权限
chmod -R 755 /opt/jdk1.8.0_91
执行 source /etc/profile生效
各主机执行java -version、echo $JAVA_HOME 验证JDK版本及安装路径
3.5.Kerberos部署
3.5.1.服务端、客户端安装
服务端命令(主备机都要装):

yum -y install krb5-server krb5-libs krb5-auth-dialog

客户端命令(所有机器):

yum -y install krb5-workstation krb5-libs krb5-auth-dialog

3.5.2.配置文件修改
主备节点修改配置文件:
vi /etc/krb5.conf
修改为以下内容(域名需要根据集团规范命名)

[logging]default = FILE:/var/log/krb5libs.logkdc = FILE:/var/log/krb5kdc.logadmin_server = FILE:/var/log/kadmind.log
[libdefaults]default_realm = DCS.COMdns_lookup_realm = falsedns_lookup_kdc = falseticket_lifetime = 2d 0h 0m 0srenew_lifetime = 500dforwardable = trueallow_weak_crypto = true
kdc_timeout = 3000max_retries = 3
[realms]DCS.COM = {kdc = hadoop1.dcs.comadmin_server = hadoop1.dcs.comdefault_domain = dcs.com}
[domain_realm].dcs.com = DCS.COMdcs.com = DCS.COM
[kdc]profile = /var/kerberos/krb5kdc/kdc.conf
[appdefaults]pam = {debug = falseticket_lifetime = 36000renew_lifetime = 36000forwardable = truekrb4_convert = false}

验证时如需客户端,可拷贝该配置文件到客户端节点:scp /etc/krb5.conf hadoop3:/etc
主备节点修改配置文件:
vi /var/kerberos/krb5kdc/kdc.conf
修改为以下内容(域名需要根据集团规范命名)

[kdcdefaults]kdc_ports = 750,88kdc_tcp_ports = 88v4_mode = nopreauth
[realms]DCS.COM = {master_key_type = des3-hmac-sha1 database_name = /var/kerberos/krb5kdc/principalkey_stash_file = /var/kerberos/krb5kdc/.DCS.COMacl_file = /var/kerberos/krb5kdc/kadm5.aclkdc_ports = 750,88max_life = 2d 0h 0m 0smax_renewable_life = 500d 0h 0m 0sdict_file = /usr/share/dict/wordsadmin_keytab = /var/kerberos/krb5kdc/kadm5.keytabsupported_enctypes = des3-hmac-sha1:normal arcfour-hmac:normal des-hmac-sha1:normal des-cbc-md5:normal des-cbc-crc:normal}

3.5.3.创建Kerberos数据库
#配置如上2个文件后再在主节点上创建数据库
#备节点不需要建数据库
创建一个kerberos数据库 ,kerberos数据库文件存放在/var/kerberos/krb5kdc/
命令:

kdb5_util create -r DCS.COM -s

执行结果如下:
kdb5_util create -r DCS.COM -s
Loading random data
Initializing database ‘/var/kerberos/krb5kdc/principal’ for realm ‘DCS.COM’,
master key name ‘K/M@DCS.COM’
You will be prompted for the database Master Password.
It is important that you NOT FORGET this password.
Enter KDC database master key: #密码root
Re-enter KDC database master key to verify: #密码root

#输入数据库root密码:root(可自定义) 安装过程中需要输入数据库root用户密码
3.5.4.创建超级管理用户root及kadm5.keytab文件
主节点运行kadmin.local
执行:

kadmin.local:addprinc root/admin
kadmin.local:  ktadd -k /var/kerberos/krb5kdc/kadm5.keytab kadmin/admin kadmin/changepw

注:可以用kadd来增加用户的权限
注意:kadm5.keytab的路径要与kdc.conf中的路径一致
验证:
重启服务
systemctl restart krb5kdc.service
systemctl restart kadmin.service

3.5.5.新增配置:kadm5.acl
vi /var/kerberos/krb5kdc/kadm5.acl
更新以下内容到配置文件
*/admin@DCS.COM *
重启服务

 systemctl restart krb5kdc.servicesystemctl restart kadmin.service

3.5.6.主备配置
1、创建主节点host用户以及票据/etc/krb5.keytab
[root@hadoop1 ~]# kadmin
Authenticating as principal root/admin@DCS.COM with password.
Password for root/admin@DCS.COM:
kadmin: addprinc -randkey host/hadoop1.dcs.com
WARNING: no policy specified for host/hadoop1.dcs.com@DCS.COM; defaulting to no policy
Principal “host/hadoop1.dcs.com@DCS.COM” created.
kadmin: ktadd host/hadoop1.dcs.com
Entry for principal host/hadoop1.dcs.com with kvno 2, encryption type des3-cbc-sha1 added to keytab FILE:/etc/krb5.keytab.
Entry for principal host/hadoop1.dcs.com with kvno 2, encryption type arcfour-hmac added to keytab FILE:/etc/krb5.keytab.
Entry for principal host/hadoop1.dcs.com with kvno 2, encryption type des-hmac-sha1 added to keytab FILE:/etc/krb5.keytab.
Entry for principal host/hadoop1.dcs.com with kvno 2, encryption type des-cbc-md5 added to keytab FILE:/etc/krb5.keytab.
kadmin: exit

2、创建备节点host用户以及票据/etc/krb5.keytab
[root@hadoop1 ~]# kadmin
Authenticating as principal root/admin@DCS.COM with password.
Password for root/admin@DCS.COM:
kadmin: addprinc -randkey host/hadoop2.dcs.com
WARNING: no policy specified for host/hadoop2.dcs.com@DCS.COM; defaulting to no policy
Principal “host/hadoop2.dcs.com@DCS.COM” created.
kadmin: ktadd host/hadoop2.dcs.com
Entry for principal host/hadoop2.dcs.com with kvno 2, encryption type des3-cbc-sha1 added to keytab FILE:/etc/krb5.keytab.
Entry for principal host/hadoop2.dcs.com with kvno 2, encryption type arcfour-hmac added to keytab FILE:/etc/krb5.keytab.
Entry for principal host/hadoop2.dcs.com with kvno 2, encryption type des-hmac-sha1 added to keytab FILE:/etc/krb5.keytab.
Entry for principal host/hadoop2.dcs.com with kvno 2, encryption type des-cbc-md5 added to keytab FILE:/etc/krb5.keytab.
kadmin: exit

3、在备节点上配置以下文件
vi /var/kerberos/krb5kdc/kpropd.acl

host/hadoop1.dcs.com@DCS.COM
host/hadoop2.dcs.com@DCS.COM

4、主节点拷贝文件到备节点

cd /var/kerberos/krb5kdc/
scp  kdc.conf kadm5.acl .DCS.COM hadoop2:/var/kerberos/krb5kdc/

5、主节点/etc/krb5.conf配置文件新增kdc备节点地址
vi /etc/krb5.conf
添加:kdc = hadoop2.dcs.com

拷贝该文件到备节点:scp /etc/krb5.conf hadoop2:/etc/krb5.conf
验证时如需客户端,可拷贝该配置文件到客户端节点:scp /etc/krb5.conf hadoop3:/etc
6、备节点启动kpropd服务
.

7、主节点配置prop.sh
vi /var/kerberos/krb5kdc/prop.sh
加入以下脚本

#!/bin/sh
kdclist='hadoop2.dcs.com'
/usr/sbin/kdb5_util dump /var/kerberos/krb5kdc/slave_datatrans
for kdc in $kdclist
do/usr/sbin/kprop -f /var/kerberos/krb5kdc/slave_datatrans $kdc
done

设置权限:chmod 700 prop.sh
添加定时任务:crontab -e
0 0 * * * /var/kerberos/krb5kdc/prop.sh
8、脚本执行情况:

9、验证:
查看备节点/var/kerberos/krb5kdc/目录下有没有生成对应的配置文件
主节点停掉krb5kdc服务
systemctl stop krb5kdc.service
备节点启动krb5kdc服务
systemctl start krb5kdc.service
客户端验证安全认证是否异常(登录其他主机验证kinit获取是否异常)。

3.5.7.安装ambari服务端
yum install -y ambari-server(只有ambari服务端节点做)

3.5.8.安装ambari客户端
可以先不安装,后续ambari会自动安装,但是需要配置root免密
yum install -y ambari-agent

3.5.9.ambari-agent配置
vi /etc/ambari-agent/conf/ambari-agent.ini
修改
hostname= hadoop1.dcs.com
配置文件拷贝到各个主机:
scp /etc/ambari-agent/conf/ambari-agent.ini hadoop2:/etc/ambari-agent/conf
3.5.10.ambari-server设置
执行命令:ambari-server setup

3.5.11.ambari-server启动
命令:ambari-server start
重启命令:ambari-server restart

3.5.12.ambari-agent启动
命令: ambari-agent start
重启命令: ambari-agent restart

3.6.hadoop部署
3.6.1.安装前检查
防火墙是否随机启动
systemctl list-unit-files|grep firewalld
Selinux是否永久关闭
cat /etc/selinux/config|grep SELINUX=
ulimit检查
ulimit -a |grep ‘max user processes’
ulimit -a |grep ‘open files’
是否安装成功kerberos客户端
klist -V
是否成功安装jdk
whereis java
默认java版本
java -version
Kerberos客户端配置文件是否正确
cat /etc/krb5.conf|grep dcs.com
主机hostname是否正确
hostname -f
是否有定时时钟同步
crontab -l
时间和时区是否正确
date -R
磁盘挂载是否符合要求
df -h
字符集是否正确
cat /etc/locale.conf
env|grep LANG
3.6.2.Hadoop部署步骤
1、登录界面
通过浏览器打开:http://192.168.170.100:8080
用户密码:admin/admin

2、设置集群名称dcs
Cluster,根据系统用途定义集群名称,包括:省份简写、能力中心简写、组件名称、三位序号。示例:GS_CRM_HDP_001

3、版本选择
选择HDP2.5和redhat7

配置yum源

4、配置主机信息

添加主机信息和ambari-server节点的root的私钥
5、主机确认界面:

ambari的yum源文件名必须是/etc/yum.repos.d/ambari.repo
centos7.4的系统会出现ambari-agent注册不到ambari-server,报错如下:
ERROR 2018-10-10 09:29:47,150 NetUtil.py:93 - [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:579)
ERROR 2018-10-10 09:29:47,151 NetUtil.py:94 - SSLError: Failed to connect. Please check openssl library versions.

解决方法:
修改/etc/python/cert-verification.cfg配置文件: (每个ambari-agent节点都需要修改)

vi /etc/python/cert-verification.cfg

修改为verify=disable,然后重启ambari-agent,页面点击retry
状态都为SUCCESS才可以通过。(告警信息需要查看处理)

python /usr/lib/python2.6/site-packages/ambari_agent/HostCleanup.py --silent --skip=users
6、选择要安装的组键

包括HDFS、YARN+MapReduce2、Hbase、ZooKeeper、Ambari Metrics等
7、进入配置界面

选择各主机对应安装的组键,根据主机规划选择。
HBase Master主机需新增一台
8、选择各主机安装的服务

9、安装组件相关配置
有提示参数先修改,其他参数可以等整个集群启动后再修改

10、配置信息展示

11、开始安装


100%提示安装成功后 :next

有告警信息的话根据告警处理。
若多次重试失败可能会产生遗留文件,例如:
File “/usr/lib/python2.6/site-packages/resource_management/core/shell.py”, line 303, in _call
raise ExecutionFailed(err_msg, code, out, err)
resource_management.core.exceptions.ExecutionFailed: Execution of 'ambari-sudo.sh /usr/bin/hdp-select set all ambari-python-wrap /usr/bin/hdp-select versions | grep ^2.5 | tail -1’ returned 1. symlink target /usr/hdp/current/hbase-client for hbase already exists and it is not a symlink.
解决方法:
rm -rf /usr/hdp/current/hbase-client

12、安装成功

安装正常完成并成功启动之后,展现的web界面,左边列表全部都是绿色的圆点,如果有红色表示启动异常,需要查找原因。

3.6.3.启用NameNode高可用
1、进入NN HA配置界面
在abmari主界面 HDFS Service Actions Enable NameNode HA



输入集群名称:dcs
2、分配主机角色
选择新增安装的NN主机: hadoop2.dcs.com
选择要安装的三台JournalNode : hadoop1.dcs.com / hadoop2.dcs.com /hadoop3.dcs.com
如下图:

3、HA配置回顾

这里就提示 hadoop2.dcs.com SNN 要删除;
hadoop2.dcs.com NN 要新增;
hadoop1.dcs.com JN 要新增
hadoop2.dcs.com JN 要新增
hadoop3.dcs.com JN 要新增
4、在NameNode上进入安全模式并创建检查点

在hadoop1.dcs.com主机上执行界面中的命令:

执行完成后 next
5、执行配置安装

执行完成后 next
6、手动初始化JournalNodes

在hadoop1.dcs.com主机上执行界面中的命令:
sudo su -l hdfs -c ‘hdfs namenode -initializeSharedEdits’

执行完成后 next
7、启动zookeeper和namenode服务

执行完成后 next
8、手动初始化NameNode的HA元数据

在hadoop1.dcs.com主机上执行步骤2的命令:

sudo su hdfs -l -c 'hdfs zkfc -formatZK'

注意:
Important! Be sure to login to the Additional NameNode host.
This is a different host from the Steps 1 and 2 above.
注意要登录到另外的NN主机,和步骤1、2是不一样主机
即:在hadoop2.dcs.com主机上执行步骤4的命令:
sudo su hdfs -l -c ‘hdfs namenode -bootstrapStandby’

执行完成后 next
9、确认以上的操作: OK

10、执行Done,完成HA的安装

此时已经完成了两台NameNode的高可用HA部署,常态下为一台namenode(active)状态,另一台namenode为(standby)状态,当active的namenode出现故障,则两台namenode互换角色,原来standby状态的namenode升级为active状态继续提供服务。当那台出现故障的namenode恢复正常后自动进入standby的热备状态。
3.6.4.启用ResourceManager高可用
进入 yarn -> service actions -> enanble ResourceManager HA
进入到配置界面 next.

进入到配置界面 next 都是默认配置,OK。
3.6.5.启用Kerberos
注意:若ambari-server不在hadoop集群内,需手动在ambari-server节点安装kerberos客户端,否则启用Kerberos无法完成。
1、打开界面
Admin Kerberos Enable Kerberos

2、开始安装

3、配置Kerberos

这边的密码是上述root/admin新建时配置的密码
下图krb5-conf template中的内容从/etc/krb5.conf复制进去

4、安装界面
默认 Next

安装过程如果报错:sudo: no tty present and no askpass program specified
需要在ambari-server主机上添加sudo权限:
vi /etc/sudoers
admin ALL=(ALL)NOPASSWD: ALL

所有服务启动起来就成功了。
5、验证
klist -kt /etc/security/keytabs/nn.service.keytab

4.组件操作
4.1.组件部署清单

4.2.组件优化
需根据实际情况配置

4.3.组件启动
启动全部组件

启动某个组件

4.4.组件停止
停止全部组件

停止某个组件

5.部署问题(有问题可以问问度娘)
NameNode启动失败
java.net.BindException: Problem binding to [0.0.0.0:50010]
解决方案:
•netstat -anlpt |grep 50010 查询占用50010端口的进程。
•kill -9 xxx,强制关闭进程即可
ambari客户端连接不了服务器
操作系统centos6.5会有openssl的bug,ambari agent连不上服务器
解决方案:
下载安装rpm -ivh --replacefiles openssl-1.0.1e-30.el6.x86_64.rpm
Ambari测试kdc连接败
Algorithm AES256 not enabled
解决方案:
•当前jdk不支持AES256加密算法,需要安装相应的jce
Ambari安装hadoop时报错snappy版本不匹配
Error:Package:snappy-devel-1.0.5-1.el6.x86_64
解决方案:
•rpm -ivh snappy-devel-1.1.0-3.el7.x86_64.rpm

3 十月 2020 16:23:27,873 INFO [pool-19-thread-1] BSHostStatusCollector:55 - Request directory /var/run/ambari-server/bootstrap/1
13 十月 2020 16:23:27,873 INFO [pool-19-thread-1] BSHostStatusCollector:62 - HostList for polling on [hadoop1.dcs.com, hadoop2.dcs.com
bootstrap 创建这个目录,并且给权限
mkdir bootstrap
chmod 755 bootstrap
chown admin. bootstrap/

Hadoop平台组件部署相关推荐

  1. Hadoop大数据平台实践(二):Hadoop生态组件的学习文档

    Hadoop基础组件学习-Yzg-2019-03-06 Hadoop基础组件学习文档.. 1 简介.. 4 HDFS. 5 HDFS读文件.. 6 HDFS写文件.. 7 Mapreduce 8 单词 ...

  2. 【Hadoop大数据平台组件搭建系列(一)】——Zookeeper组件配置

    简介 本篇介绍Hadoop大数据平台组件中的Zookeeper组件的搭建 使用软件版本信息 zookeeper-3.4.14.tar.gz Zookeeper安装 解压Zookeeper安装包至目标目 ...

  3. Hadoop平台安全机制Kerberos认证

    日前笔者在使用flume采集数据直接入到Hadoop平台HDFS上时,由于Hadoop平台采用了Kerberos认证机制.flume配置上是致辞kerberos认证的,但由于flume要采集的节点并不 ...

  4. Hadoop平台日志结构

    1.Hadoop集群部署 Hadoop集群: Master:10.18.18.1 Slave1:10.18.18.100 Slave2:10.18.18.101 可互相通信.可连外网,操作系统均为: ...

  5. Hadoop全分布式部署 - CentOS(结尾附视频)

    写在前面:博主是一只经过实战开发历练后投身培训事业的"小山猪",昵称取自动画片<狮子王>中的"彭彭",总是以乐观.积极的心态对待周边的事物.本人的技 ...

  6. Hadoop伪分布式部署及常用操作

    hadoop伪分布式部署 之前有做过hadoop 2.x的部署,现在再做一下hadoop 3.x的部署. hadoop有三个组件:hdfs用来存储数据,mapreduce 用来计算(作业) ,yarn ...

  7. Hadoop平台K-Means聚类算法分布式实现+MapReduce通俗讲解

        Hadoop平台K-Means聚类算法分布式实现+MapReduce通俗讲解 在Hadoop分布式环境下实现K-Means聚类算法的伪代码如下: 输入:参数0--存储样本数据的文本文件inpu ...

  8. 为什么 Cloudera 要创建 Hadoop 安全组件 Sentry ?

    为什么 Cloudera 要创建 Hadoop 安全组件 Sentry ? 1.  大数据的安全体系 要说清楚这个问题,还得从大数据平台安全体系的四个层次说起:外围安全.数据安全.访问安全以及访问行为 ...

  9. 轻松实现各种文档格式转换,doc转pdf、doc转png图片、pdf转png图片,可以实现Windows、Linux、MacOS平台上部署(附源码和说明)

    轻松实现各种文档格式转换,doc转pdf.doc转png图片.pdf转png图片,可以实现Windows.Linux.MacOS平台上部署,可以通过命令行.shell脚本.python等方式调用. 实 ...

最新文章

  1. [Linux]VI相关操作
  2. SharePoint【Query Options系列】-- Query Options的一些用法 01. 展开用户列信息
  3. Rserve 实现java与R的互通
  4. csp php,CSP学习笔记(持续学习更新)
  5. 如何在服务器上部署若依开源框架?(Linux版)
  6. 零基础快速入门web学习路线(含视频教程)
  7. 前端工程化和模块化学习资料汇总
  8. C++之调用C的so
  9. paip.环境设置 mybatis ibatis cfg 环境设置
  10. python实现等量随机分组
  11. arcsinx用计算机怎么按,数学arcsinx和arccosx怎么用公 – 手机爱问
  12. 路由器怎么用自己的笔记本电脑进行配置
  13. 华硕FL8000U拆换机械硬盘
  14. 计算机视觉中的双目立体视觉和体积度量
  15. atlas mysql怎么用,MySQL —— Atlas 使用
  16. LOJ6001 - 「网络流 24 题」太空飞行计划
  17. 一次性全部给你,这4款名不见经传的精品软件,用了就放不下
  18. 黑马程序员 对象序列化
  19. OmniGraffle Pro for Mac v7.10.2 画图制图软件 中文破解版下载
  20. 晾衣架语音识别芯片应用设计方案介绍,唯创知音WTK6900H-24SS

热门文章

  1. git报错解决 pathspec
  2. nvme linux raid,NVMe SSD 组RAID 阵列速度很暴虐
  3. 【12c】ORA-00257: Archiver error. Connect AS SYSDBA only until resolved.
  4. android mvp模式例子_Android中mvp模式使用实例详解
  5. SQL笔试经典50题及答案解析
  6. springmvc的RequestParamMapMethodArgumentResolver分析_晏无心_新浪博客
  7. [C++]-C++基本输入及读取整行
  8. CRC_16---ModBus 计算方法及代码实现
  9. 在配置Flutter环境遇到:× Windows Version (Unable to confirm if installed Windows version is 10 or greater)
  10. 如何解决TortoiseSVN不显示状态小图标问题