版本:easyhadoop 1.2.1,操作系统:Centos 6.4;

经过上次的初始easyhadoop,本次终于配置好了一个集群,这个集群是有两个节点组成(master:jobtracker、namenode、secondarynamenode,node1:datanode、tasktracker)。

本篇就从开始到结束,来一个全面的介绍:

1.首先安装centos6.4的虚拟机,centos6.4的安装是有一个默认用户的,这里不使用那个账户,直接使用root即可。安装完成后,需要改变下面的内容(首先配置master,然后再配置node1):

1.1  /etc/sysconfig/network-scripts/ifconfig-eth0 ,这里配置GATEWAY是192.168.128.2,是因为Vmware的nat网络连接方式,其gateway是这个而已;

DEVICE=eth0
BOOTPROTO=static
ONBOOT=yes
IPADDR=192.168.128.160
NETMASK=255.255.255.0
GATEWAY=192.168.128.2
DNS1=192.168.128.2

1.2 /etcc/sysconfig/network  这里主要是配置机器名

NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME=master

1.3 /etc/hosts ,配置ip映射(注意,这一步不是必须,因为在后面的配置easyhadoop的时候会复写这个文件)

192.168.128.160   master

同样的在另外一台虚拟机里面做相应的配置,这里配置的ip是192.168.128.161,机器名是node1。

1.4 因为centos6.4虚拟机安装好默认是没有ssh-server的,所以这里使用下面的命令进行安装:

yum install ssh-server

然后使用下面的命令设置sshd开机启动:

chkconfig sshd on

2. 安装easyhadoop:

2.1下载easyhadoop安装包,解压后,上传到master机器中的目录(这里上传的是/easyhadoop安装目录)
2.2 进入easyhadoop目录,使用命令 :

chmod +x setup_centos_6.py

增加setup_centos_6.py文件的执行权限,然后使用命令 ./setup_centos_6.py 进行安装;

2.3 安装完成后在浏览器中输入http://master,(如果在win7中没有配置master和ip的映射的话,是出不来结果的,那么就直接输入http:192.168.128.160)即可看到登录的界面,登录用户名和密码是:admin/123456,然后就可以进行配置了。

3. 配置hadoop:

3.1 点击导航栏Nodes--》Create Node 选项,按照下面两个图进行配置:

分别点击save,然后在Monitor--》Memory中可以看到下面的界面(做了一个配置后,最好在Monitor中查看有哪些东西做了改变):

然后在Nodes中选择Storage,选择相应的文件系统:

点击save保存。

3.2 install: 点击Install,依次选择节点中的install进行hadoop的安装,安装完成后会跳出来一个界面告诉你安装了哪些东西,最后会说hadoop installed。说明hadoop安装完成。额,别急,还有配置,个人感觉配置才是最麻烦的。

3.3 选择Settings--》Hadoop:

选择/etc/hosts选项,View Hosts,然后如果看到下面的界面:

那么就说明这个配置是ok的,然后使用push Hosts选项进行/etc/hosts文件的分发,点击运行后,可以在master和node1机器中cat /etc/hosts查看这个文件是否和上图一样,如果一样就说明这个操作运行正常。

然后是RackAware选项,点击View RackAware,可以看到下图:

那么就说明这个是对的了,点击push RackAware即可。

最后是Global Settings选项了,首先按照图的操作把四个配置文件提交上来:


提交完成后,可以在HadoopSetings中看到下面的界面:


然后分别点击Edit,进行文件的配置,配置分别如下:

/core-site.xml:

<configuration><property><name>fs.default.name</name><value>hdfs://master:9000</value><description>HDFS主节点访问地址和端口</description></property><property><name>hadoop.tmp.dir</name>
<value>/hadoop/tmp</value>
</property><property><name>fs.checkpoint.dir</name><value>/dfs/snn</value><description>HDFS检查点路径设置(SNN)</description></property><property><name>fs.checkpoint.period</name><value>1800</value><description>HDFS元数据备份间隔时间(SNN)/秒</description></property><property><name>fs.checkpoint.size</name><value>33554432</value><description>HDFS元数据备份文件滚动大小(SNN)/字节</description></property><property><name>io.compression.codecs</name><value>org.apache.hadoop.io.compress.DefaultCodec,com.hadoop.compression.lzo.LzoCodec,com.hadoop.compression.lzo.LzopCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.BZip2Codec,org.apache.hadoop.io.compress.SnappyCodec</value><description>HDFS压缩编解码器</description></property><property><name>io.compression.codec.lzo.class</name><value>com.hadoop.compression.lzo.LzoCodec</value><description>LZO编解码器</description></property><property><name>topology.script.file.name</name><value>/etc/hadoop/RackAware.py</value><description>机架感知脚本位置</description></property><property><name>topology.script.number.args</name><value>100</value><description>机架感知参数最大值</description></property><property><name>fs.trash.interval</name><value>4320</value><description>HDFS回收站自动清空间隔/分钟</description></property><property><name>io.file.buffer.size</name><value>131072</value><description>序列化文件处理时读写buffer大小/字节</description></property><property><name>webinterface.private.actions</name><value>false</value><description>NN网页是否可以删除目录文件</description></property><property><name>io.sort.factor</name><value>100</value><description>处理流合并时的文件排序数</description></property><property><name>io.sort.mb</name><value>200</value><description>排序使用内存大小/MB</description></property><property><name>hadoop.security.authorization</name><value>false</value><description>Hadoop服务层级验证安全验证,需配合hadoop-policy.xml使用</description></property><property><name>fs.inmemory.size.mb</name><value>300</value><description>文件系统内存映射大小</description></property></configuration>

/hdfs-site.xml:

<configuration><property><name>dfs.name.dir</name><value>/dfs/name</value><description>Namenode元数据存储位置</description></property><property><name>dfs.data.dir</name><value>/dfs/data</value><description>HDFS数据存储路径</description></property><property><name>dfs.replication</name><value>1</value><description>文件块复制份数</description></property><property><name>dfs.datanode.du.reserved</name><value>1073741824</value><description>每硬盘保留空间/字节</description></property><property><name>dfs.block.size</name><value>67108864</value><description>文件块大小/字节</description></property><property><name>dfs.permissions</name><value>false</value><description>是否启用Hadoop文件系统 true/false</description></property><property><name>dfs.balance.bandwidthPerSec</name><value>10485760</value><description>Balancer使用最大带宽/字节</description></property><property><name>dfs.support.append</name><value>true</value><description>是否允许对文件APPEND</description></property><property><name>dfs.datanode.failed.volumes.tolerated</name><value>0</value><description>硬盘故障数量异常阀值</description></property><property><name>dfs.datanode.max.xcievers</name><value>8192</value><description>Datanode打开文件句柄数</description></property><property><name>dfs.datanode.handler.count</name><value>20</value><description>Datanode处理RPC线程数</description></property><property><name>dfs.namenode.handler.count</name><value>60</value><description>Namenode处理RPC线程数</description></property><property><name>dfs.safemode.extension</name><value>5</value><description>Namenode退出Safemode的延迟时间</description></property></configuration>

/mapred-site.xml:

<configuration><property><name>mapred.job.tracker</name><value>master:9001</value><description>Jobtracker地址</description></property><property><name>mapred.local.dir</name><value>/mapred/local</value><description>MR本地使用路径</description></property><property><name>mapred.system.dir</name><value>/mapred/system</value><description>MR系统使用路径</description></property><property><name>mapred.tasktracker.map.tasks.maximum</name><value>2</value><description>服务器最大map数</description></property><property><name>mapred.tasktracker.reduce.tasks.maximum</name><value>1</value><description>服务器最大reduce数</description></property><property><name>mapred.map.child.java.opts</name><value>-Xmx256M</value><description>每map线程使用内存大小</description></property><property><name>mapred.reduce.child.java.opts</name><value>-Xmx256M</value><description>每reduce线程使用内存大小</description></property><property><name>mapred.reduce.parallel.copies</name><value>6</value><description>reduce阶段并行复制线程数</description></property><property><name>mapred.compress.map.output</name><value>true</value><description>是否对map进行压缩输出</description></property><property><name>mapred.map.output.compression.code</name><value>org.apache.hadoop.io.compress.SnappyCodec</value><description>map压缩输出使用的编码器</description></property><property><name>mapred.child.java.opts</name><value>-Xmx1024M -Xms1024M</value><description>map/red虚拟机子进程设置</description></property><property><name>mapred.jobtracker.taskScheduler</name><value>org.apache.hadoop.mapred.JobQueueTaskScheduler</value><description>hadoop使用队列</description></property><property><name>mapred.output.compress</name><value>false</value><description>是否开启任务结果压缩输出</description></property><property><name>mapred.output.compression.codec</name><value>org.apache.hadoop.io.compress.DefaultCodec</value><description>任务结果压缩输出编解码器</description></property><property><name>map.sort.class</name><value>org.apache.hadoop.util.QuickSort</value><description>map排序算法</description></property><property><name>mapred.tasktracker.expiry.interval</name><value>60000</value><description>TaskTracker存活检测时间,超出该时间则认为tasktracker死亡/毫秒</description></property><property><name>mapred.local.dir.minspacestart</name><value>1073741824</value><description>硬盘空间小于该大小则不在本地做计算/字节</description></property><property><name>mapred.local.dir.minspacekill</name><value>1073741824</value><description>硬盘空间小于该大小则不再申请新任务/字节</description></property><property><name>mapred.reduce.slowstart.completed.maps</name><value>0.05</value><description>Reduce启动所需map进度。</description></property><property><name>mapred.jobtracker.restart.recover</name><value>true</value><description>Jobtracker重启后恢复任务</description></property><property><name>mapred.job.reuse.jvm.num.tasks</name><value>-1</value><description>Map/Reduce进程使用JVM重用</description></property><property><name>mapred.local.dir.minspacekill</name><value>1073741824</value><description>磁盘小于该空间则不申请新任务</description></property></configuration>

/hadoop-end.sh:

# Set Hadoop-specific environment variables here.# The only required environment variable is JAVA_HOME. All others are
# optional. When running a distributed configuration it is best to
# set JAVA_HOME in this file, so that it is correctly defined on
# remote nodes.# The java implementation to use.
export JAVA_HOME=/usr/java/defaultexport HADOOP_C# The maximum amount of heap to use, in MB. Default is 1000.
#export HADOOP_HEAPSIZE=
#export HADOOP_NAMENODE_INIT_HEAPSIZE=""# Extra Java runtime options. Empty by default.
export HADOOP_OPTS="-Djava.net.preferIPv4Stack=true $HADOOP_CLIENT_OPTS"# Command specific options appended to HADOOP_OPTS when specified
export HADOOP_NAMENODE_OPTS="-Dhadoop.security.logger=INFO,DRFAS -Dhdfs.audit.logger=INFO,DRFAAUDIT $HADOOP_NAMENODE_OPTS"
HADOOP_JOBTRACKER_OPTS="-Dhadoop.security.logger=INFO,DRFAS -Dmapred.audit.logger=INFO,MRAUDIT -Dhadoop.mapreduce.jobsummary.logger=INFO,JSA $HADOOP_JOBTRACKER_OPTS"
HADOOP_TASKTRACKER_OPTS="-Dhadoop.security.logger=ERROR,console -Dmapred.audit.logger=ERROR,console $HADOOP_TASKTRACKER_OPTS"
HADOOP_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,DRFAS $HADOOP_DATANODE_OPTS"export HADOOP_SEC# The following applies to multiple commands (fs, dfs, fsck, distcp etc)
export HADOOP_CLIENT_OPTS="-Xmx128m $HADOOP_CLIENT_OPTS"
#HADOOP_JAVA_PLATFORM_OPTS="-XX:-UsePerfData $HADOOP_JAVA_PLATFORM_OPTS"# On secure datanodes, user to run the datanode as after dropping privileges
export HADOOP_SECURE_DN_USER=# Where log files are stored. $HADOOP_HOME/logs by default.
export HADOOP_LOG_DIR=/var/log/hadoop/$USER# Where log files are stored in the secure data environment.
export HADOOP_SECURE_DN_LOG_DIR=/var/log/hadoop/# The directory where pid files are stored. /tmp by default.
export HADOOP_PID_DIR=/var/run/hadoop
export HADOOP_SECURE_DN_PID_DIR=/var/run/hadoop# A string representing this instance of hadoop. $USER by default.
export HADOOP_IDENT_STRING=$USER

其实上面四个文件的配置和模板是差不多的,只是其中有一点点改变而已。其中hadoop-env.sh文件中的JAVA_HOME=/usr/java/default是进行easyhadoop安装的时候安装的java的默认路径。上面四个文件配置完成后,点击Push Global Settings即可推送这四个文件到集群的各个机器,可以在集群中的/etc/hadoop/中查看相应 的文件,看是否和配置的一样,如果不一样,那么就说明有错误。

3.4 格式化namenode,在master中运行:

sudo -u hdfs hadoop namenode -format

进行namenode的格式化;

3.5 启动集群:

点击导航栏的Service --》Hadoop,依次点击Namenode-----》datanode1-----》datanode2-----》secondarynamenode-----》jobtracker------》tasktracker1------》tasktracker2中的Start-*选项,进行进程的启动。启动完成后,可以在Monitor中进行HDFS和Mapreduce的查看:

最后,为了验证集群的配置是正确的,运行一个程序,在主节点运行(上传文件到HDFS中):

hadoop fs -copyFromLocal /etc/hadoop/hadoop-env.sh input/test1

接着运行wordcount程序:

hadoop jar /usr/share/hadoop/hadoop-examples-1.2.1.jar wordcount input/ output

下图是在上面程序运行时,Monitor中的截图:

这样全部配置就全部ok了。

说明:

  1. java默认目录/usr/java/default
  2. hadoop配置文件默认目录:/etc/hadoop/
  3. hadoop jar文件默认目录/usr/share/hadoop

分享,成长,快乐

转载请注明blog地址:http://blog.csdn.net/fansy1990

easyhadoop完全配置实战相关推荐

  1. R语言使用ggplot2包使用geom_violin函数绘制分组小提琴图(分组颜色配置、位置配置)实战

    R语言使用ggplot2包使用geom_violin函数绘制分组小提琴图(分组颜色配置.位置配置)实战 目录

  2. Radware负载均衡项目配置实战解析之四-VRRP双机配置与同步

    接上一小节内容,这一节主要介绍RADWARE负载均衡实战项目中的VRRP双机配置与同步问题.radware在实际的业务与配置中,一般都会配置双机来实现冗余.无论是主用设备还是备用设备都要进行基本配置. ...

  3. Flume NG 简介及配置实战

    2019独角兽企业重金招聘Python工程师标准>>> Flume NG 简介及配置实战 博客分类: 分布式计算 1.Flume 的一些核心概念: 1.1 数据流模型 1.2 高可靠 ...

  4. Nginx(四):Nginx配置实战

    相关阅读: Nginx(一):Nginx原理概述 与 安装步骤详解 Nginx(二):反向代理原理 与 配置文件详解 Nginx(三):负载均衡策略 与 Nginx静态服务器 Nginx(四):Ngi ...

  5. 华为ac控制器web配置手册_家庭WIFI网络规划设计与配置实战,一文教会你

    从家庭网络谈起 家庭网络应该是最简单的网络,但很多中小型企业/园区网网络架构与家庭网络非常类似,麻雀虽小五脏俱全.下面就为大家分享一下,我家网络的部署. 大多家庭网络可能只有一台无线路由器,集路由器. ...

  6. .NET开发框架(九)-NLB网络负载平衡配置实战(视频)

    (NLB配置实战教程-有声视频-第二节) 请持续关注公众号,第三节(NLB+ARR)正在录制中~ 第六章IIS负载均衡教程,至今共有37人参与学习 尚未学习第六章-IIS负载均衡-视频教程的童靴, 赶 ...

  7. 原有磁盘上创建lvm_Linux 系统管理及服务配置实战-第12章 磁盘管理3(连载)

    存储管理Ⅱ 1.逻辑卷LVM 1.1.LVM管理 在线扩容 online 数据迁移 online 创建LVM VG扩展/缩小 LV扩容 文件系统扩容 基本分区(MBR|GPT) ----> Fi ...

  8. 静态路由和默认路由的配置实战及其区别--很详细哦

    静态路由和默认路由的配置实战及其区别   一:实验拓扑 二:实验要求 1:实现全网互通 2:实现静态路由与动态路由的区别认识 3:熟练掌握其配置命令 三:实验步骤 第一步:ip地址.环回扣的划分 R1 ...

  9. Windows下MySql主从配置实战教程

    Windows下MySql主从配置实战教程 MySql的主从配置教程 主库MySql的安装 1.MySQL的下载 2.MySQL配置文件的编写 3.初始化数据库 4.安装服务 5.启动MySql 6. ...

最新文章

  1. java的InputStream和OutputStream的理解【转】
  2. VS2010没有Intellisense(智能感知)的解决办法
  3. IPv4如何向IPv6过渡?—Vecloud微云
  4. 跑步app保活_android判断不同手机厂商,打开允许后台运行APP弹窗
  5. java import自定义类_Java实现的自定义类加载器示例
  6. CUDA ---- device管理
  7. UVA 10976 Fractions Again?!【暴力枚举/注意推导下/分子分母分开保存】
  8. mysql数据存储方式_数据存储在mysql的两种方式
  9. 办公自动化系统开发实例导航 源码_本色世界源码搭建(系统开发)
  10. 如何在 C# 中使用 反射
  11. 微服务~Eureka实现的服务注册与发现及服务之间的调用
  12. Leetcode--90. 子集Ⅱ
  13. 假如古代有了云计算,延禧攻略里的各位嫔妃要如何宫斗
  14. 线程休眠 sleep
  15. 【金猿技术展】PLC电力载波通信技术——电力系统特有通信方式
  16. 红帽9linux安装ios,红帽linux9.0安装教程
  17. 矩阵卷积、矩阵相乘以及频域相乘之间的关系
  18. 机器学习基础篇-逻辑回归和多分类问题
  19. python 证件照换背景色(蓝底->白底,蓝底->红底)
  20. Js中调用调用打印和自动生成条形码

热门文章

  1. iPhone5S发布临近 网友票选最期望功能
  2. Eclipse代码配色方案设置
  3. RT3070L_USB_WIFI网卡在GT2440开发板上的移植和使用(二)
  4. aws 负载均衡clb/nlb/alb
  5. 【区块链108将】Tripio CEO 沈巍:订酒店被杀熟 区块链恰好能解决这个问题现状...
  6. web前端面试的自我介绍
  7. 【教程】8K影像下如何玩转4K视频?
  8. Android技术知识点:屏幕截图
  9. 如何有效延长笔记本电池使用时间?
  10. 【微信小程序】view之点击变色效果