集群搭建

  • 克隆
  • 免密登录
  • 格式化集群
  • 启动集群
  • 验证集群
  • 常用命令

克隆

  • 虚拟机当前状态
  • 创建完整克隆
  • 克隆虚拟机名字 lqn2 lqn3
  • 检查网卡 改mac地址的后两位是否一致 点生成(2、3都改)
  • 修改主机名、IP地址
  • 打开三台虚拟机
  • 使用 moba 链接三台虚拟机
  • 互ping网络

免密登录

  • 在每个结点上生成密钥

    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    
  • 把2和3的密钥给主结点

    在2、3结点运行

    ssh-copy-id -i ~/.ssh/id_rsa.pub root@lqn1
    yes
    root密码:123456
    
  • 将hadoop-1自身的密钥信息加入文件中,以实现对自身的免密登陆

    在hadoop-1上运行

    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
  • 在hadoop-1上运行

    scp ~/.ssh/authorized_keys root@lqn2:/root/.ssh
    yes
    lqn2密码:123456
    scp ~/.ssh/authorized_keys root@lqn3:/root/.ssh
    yes
    lqn3密码:123456
    
  • 给所有虚报机上的authorized_keys添加权限

    所有的结点运行

    chmod 644 /root/.ssh/authorized_keys
    
  • 测试

    #在lqn1运行:
    ssh root@lqn2
    #登陆后进入lqn2
    #退出回到lqn1
    exit
    

格式化集群

  • 仅在lqn1运行
hadoop namenode -format
  • 格式化成功后,可以在看到在/opt/hadoop/dfs/name目录多了一个current
[root@lqn1 ~]# cd /opt/hadoop/dfs/name
[root@lqn1 name]# ls
current
[root@lqn1 name]#

补充:集群开启后,jps缺少进程需要检查配置文件后 重新格式化 再启动

启动集群

仅在lqn1运行

  • 切换至/opt/hadoop/sbin目录

    cd /opt/hadoop/sbin
    
  • 启动集群

    # 方法一
    # 命令启动hdfs
    ./start-dfs.sh
    #启动yarn
    ./start-yarn.sh
    #方法二
    ./start-all.sh
    
  • 注:遇到namenode无法启动的情况时,删除hadoop目录下的dfs和tmp目录然后重新格式化

验证集群

在主机电脑上打开浏览器,并分别浏览hadoop集群的管理页面,看hadoop集群是否成功启动

  • Hadoop集群的网页版管理地址

    http://192.168.17.142:50070 (或http://hadoop-1:50070)

  • Yarn的网页版管理地址

    http://192.168.17.142:8088 (或http://hadoop-1:8088)

注:请将地址中的192.168.17.142修改为你所安装虚拟机主节点的IP地址,或者若你的主机系统的hosts文件(windows系统中的hosts文件在C:\Windows\System32\drivers\etc目录下)中配置有虚拟机ip地址与其主机名的映射关系,也可以直接使用虚拟机主节点的主机名+端口号来访问。

常用命令

  • 创建目录:hadoop fs -mkdir /user

  • 查看hadoop下java的环境变量配置信息:hadoop classpath

  • 查看Hadoop HDFS支持的所有命令:hadoop fs

  • 列出[指定]目录及文件信息:hadoop fs -ls [/user]

  • 循环列出目录、子目录及文件信息:hadoop fs -lsr

  • 将本地文件系统的test.txt复制到HDFS文件系统的/user目录下
    hadoop fs -put /home/hadoop/test.txt /user/test.txt

  • 将HDFS中的test.txt复制到本地文件系统/home/hadoop目录中,与-put命令相反
    hadoop fs -get /user/test.txt /home/hadoop

  • 从本地文件系统复制文件到HDFS文件系统,等同于put命令:
    hadoop fs -copyFromLocal /home/hadoop/test.txt /user/test.txt

  • 从HDFS文件系统复制文件到本地文件系统/home/hadoop/目录中,等同于get命令:
    hadoop fs -copyToLocal /user/test.txt /home/hadoop/test.txt

  • 查看HDFS文件系统里test.txt的内容:hadoop fs -cat /user/test.txt

  • 查看最后1KB的内容:hadoop fs -tail /user/test.txt

  • 从HDFS文件系统删除test.txt文件,rm命令也可以删除空目录:

  • hadoop fs -rm /user/test.txt

  • 删除/user目录以及所有子目录:hadoop fs -rmr /user

  • 修改HDFS系统中/user目录所属群组,选项-R递归执行,跟linux命令一样:
    hadoop fs -chgrp [-R] /user

  • 修改HDFS系统中/user目录拥有者,选项-R递归执行:
    hadoop fs -chown [-R] /user

  • 修改HDFS系统中/user目录权限,MODE可以为相应权限的3位数或+/-{rwx},选项-R递归执行:
    hadoop fs -chmod [-R] MODE /user

  • 查看PATH目录下,子目录数、文件数、文件大小、文件名/目录名:
    hadoop fs -count [-q] PATH

  • 将文件从SRC复制到DST,如果指定了多个SRC,则DST必须为一个目录:
    hadoop fs -cp SRC [SRC …] DST

  • 显示该目录中每个文件或目录的大小:hadoop fs -du PATH

  • 类似于du,PATH为目录时,会显示该目录的总大小:hadoop fs -dus PATH

  • 清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除:hadoop fs -expunge

  • 获取由SRC指定的所有文件,将它们合并为单个文件,并写入本地文件系统中的LOCALDST,选项addnl将在每个文件的末尾处加上一个换行符:
    hadoop fs -getmerge SRC [SRC …] LOCALDST [addnl]

  • 创建长度为0的空文件:hadoop fs -touchz PATH

  • 对PATH进行如下类型的检查:hadoop fs -test -[ezd] PATH
    ​ -e PATH是否存在,如果PATH存在,返回0,否则返回1
    ​ -z 文件是否为空,如果长度为0,返回0,否则返回1
    ​ -d 是否为目录,如果PATH为目录,返回0,否则返回1

  • 显示文件的内容,当文件为文本文件时,等同于cat,文件为压缩格式(gzip以及hadoop的二进制序列文件格式)时,会先解压缩:hadoop fs -text PATH

  • 查看某个[ls]命令的帮助文档:hadoop fs -help ls

  • 查看/user/test.txt文件的数据块的存储位置:
    hdfs fsck /user/test.txt -files -blocks -locations

hadoop集群搭建(3)相关推荐

  1. 好程序员大数据笔记之:Hadoop集群搭建

    好程序员大数据笔记之:Hadoop集群搭建在学习大数据的过程中,我们接触了很多关于Hadoop的理论和操作性的知识点,尤其在近期学习的Hadoop集群的搭建问题上,小细节,小难点拼频频出现,所以,今天 ...

  2. linux hadoop集群搭建,hadoop集群搭建

    hadoop集群搭建步骤 实验介绍 下面将要在三台linux虚拟机上搭建hadoop集群. 知识点 linux基本命令 集群安装 完成实验需要以下相关知识 解压命令 tar -zxvf XX.tar. ...

  3. Hadoop集群搭建(27)

    2019独角兽企业重金招聘Python工程师标准>>> Hadoop集群搭建方式: 1.1    确定部署三个节点,分别是hadoop0,hadoop1,hadoop2. 其中had ...

  4. Hadoop 集群搭建

    Hadoop 集群搭建 2016-09-24 杜亦舒 目标 在3台服务器上搭建 Hadoop2.7.3 集群,然后测试验证,要能够向 HDFS 上传文件,并成功运行 mapreduce 示例程序 搭建 ...

  5. 大数据 -- Hadoop集群搭建

    Hadoop集群搭建 1.修改/etc/hosts文件 在每台linux机器上,sudo vim /etc/hosts 编写hosts文件.将主机名和ip地址的映射填写进去.编辑完后,结果如下: 2. ...

  6. 不看就亏系列!这里有完整的 Hadoop 集群搭建教程,和最易懂的 Hadoop 概念!| 附代码...

    作者 | chen_01_c 责编 | Carol 来源 | CSDN 博客 封图 | CSDN付费下载于视觉中国 hadoop介绍 Hadoop 是 Lucene 创始人 Doug Cutting, ...

  7. hadoop集群搭建 修改配置文件(三台主机都要配置)

    hadoop集群搭建      修改配置文件(三台主机都要配置) master 主机配置 1)hadoop-env.sh vim hadoop-env.sh 2)core-site.xml vim c ...

  8. Hadoop集群搭建之问题锦集

    **Hadoop集群搭建之问题锦集** 1.Centos7 ifconfig这个命令没找到的解决方法 yum -y install net-tools 2.修改文件的读写权限 chmod 777 /e ...

  9. 大数据Hadoop集群搭建

    大数据Hadoop集群搭建 一.环境 服务器配置: CPU型号:Intel® Xeon® CPU E5-2620 v4 @ 2.10GHz CPU核数:16 内存:64GB 操作系统 版本:CentO ...

  10. Hadoop集群搭建(三台Linux服务器)

    Hadoop集群搭建(三台Linux服务器) 搭建之前注意的几点问题 环境以及版本 基本命令 Linux环境准备 首先安装Hadoop 配置集群分发脚本 克隆配置好的机器 Hadoop集群配置 第一步 ...

最新文章

  1. JVM调优:图解对象内存分配过程
  2. 应用Strong Name保存.NET应用程序集
  3. pat 乙级 1031 查验身份证(C++)
  4. win7可以运行的mysql,win7下mysql安装
  5. c语言经典游戏,C语言——经典小游戏——打砖块
  6. Mac上使用CleanMyMac彻底擦除文件详细教程
  7. AspectJ中5种类型的增强注解有什么区别?
  8. 第二次作业刘惠惠2.6,2.15
  9. 12.sql语句增删改查快速回顾
  10. python生成姓名,python生成随机姓名
  11. FFmpeg 硬件加速介绍
  12. ubuntu18.04 用LSD-SLAM跑通rgbd数据集以及地图重用
  13. CSS基础学习六:id选择器
  14. Laravel+layui实现的通用后台管理系统
  15. Apache Ambari介绍
  16. css3实现旋转魔方
  17. API接口安全加密,防止接口被黑客攻击
  18. 计算机考研数学难,考研数学一考那些内容数一是不是最难的
  19. Legacy引导转UEFI引导(BIOS、Legacy引导、UEFI引导、GPT/MBR分区)
  20. javaweb邮箱页面架构

热门文章

  1. 华为路由器配置OSPF实例
  2. WPF界面设计—撸大师
  3. 虚拟化技术-KVM详解
  4. 家庭收支软件用java写,eclipse编写的Java家庭收支记账软件
  5. 数据分析软件SPSS22的授权及汉化
  6. 同步助手 android 微信 表情包,微信表情轻松导,同步助手带你装逼带你飞
  7. 【引用】我国一、二级学科目录
  8. 抢红包算法 c语言,微信红包的随机算法是怎样实现的?
  9. php imagick 取得psd缩略图,PHP中使用Imagick操作PSD文件实例
  10. macos ntfs插件_NTFS for Mac 助手 - Mac读写NTFS磁盘工具