Hadoop 安装
Hadoop 安装
打开xshell连接Linux系统,
1.查看Java版本:Java -version
2.查看mysql:mysql -uroot -proot
//打开mysql
mysql> use mysql
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A
Database changed
//查询user
mysql> select user,host from user where user='root' ;
+------+-----------+
| user | host |
+------+-----------+
| root | % |
| root | 127.0.0.1 |
| root | bigdata |
| root | localhost |
+------+-----------+
5 rows in set (0.00 sec)
mysql> Ctrl-C -- exit!
Aborted
3.把Hadoop文件拉到opt文件夹下面
查看JAVA_HOME的路径等会要用
4.[root@bigdata opt]# echo $JAVA_HOME
/opt/inst/jdk181
5.解压hadoop-2.6.0-cdh5.14.2.tar.gz
[root@bigdata opt]# tar -zxvf hadoop-2.6.0-cdh5.14.2.tar.gz
6.新建文件夹bigdata
[root@bigdata opt]# mkdir bigdata
//把 hadoop-2.6.0-cdh5.14.2移动到bigdata下面的hadoop260(新建的)
[root@bigdata opt]# mv hadoop-2.6.0-cdh5.14.2 bigdata/hadoop260
6.进入Hadoop准备改配置文件(共5个)
[root@bigdata opt]# cd bigdata/hadoop260/etc/hadoop(这是Hadoop存放文件的路径)
core-site.xml hdfs-site.xml hadoop-env.sh mapred-site.xml yarn-site.xml
(1)配置环境变量里的运行脚本
[root@bigdata hadoop]# vi hadoop-env.sh
export JAVA_HOME=/opt/inst/jdk181
(2)配置核心文件
//进入浏览器Hadoop.apache.org下载Hadoop的地址
[root@bigdata hadoop]# vi core-site.xml
<configuration><property>//想要和环境系统通信就要使用fs.defaultFS地址<name>fs.defaultFS</name>//hdfs协议://主机名:端口号9000//查看主机名:hostname<value>hdfs://bigdata:9000</value></property><property>//基本的临时目录(记录一些信息)<name>hadoop.tmp.dir</name>//在opt下新建hadoopdata文件夹,这样就不会轻易丢东西了<value>/opt/hadoopdata</value></property><property>//设置Hadoop权限,准备以后安装的软件和Hadoop整合,给root用户身份登录<name>hadoop.proxyuser.root.users</name>//只要是root型用户就可以登录<value>*</value></property><property>//开放权限:只要是root用户组的用户,也可以登录<name>hadoop.proxyuser.root.groups</name><value>*</value></property>
</configuration>
(3)配置文件系统(当前计算机有什么约束?就是准备文件备份几次)
[root@bigdata hadoop]# vi hdfs-site.xml
//一般情况下是三个备份1,本机中 2,同机架中 3,跨另外机架中(电路不一样了)
<configuration><property>//单节点:配置副本数为1 (replication就是副本的意思)<name>dfs.replication</name><value>1</value></property>
</configuration>
(4)配置资源管理文件(计算用的)
//先拷贝mapred
[root@bigdata hadoop]# cp mapred-site.xml.template mapred-site.xml
//编辑mapred
[root@bigdata hadoop]# vi mapred-site.xml
<configuration><property>//计算的时候会调用资源框架,分配任务(mapreduce依赖于yarn(雅恩))<name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>
(5)配置yarn框架(就是调度资源的那个)
[root@bigdata hadoop]# vi yarn-site.xml
<configuration><property>//资源管理器(把拿到的文件分配给谁,让谁去写)可以指定ip地址<name>yarn.resourcemanager.localhost</name>//单机版或者伪分布式版可以这样配置<value>localhost</value></property><property>//节点管理器(每隔5分钟给我一个回应(以心跳的方式通知资源管理器))管理的是硬件信息(就 是发信息的,如:cpu的状态,心跳等等)<name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property>
</configuration>
7.将用户配置到环境变量
[root@bigdata hadoop]# vi /etc/profile //配置全局变量
export HADOOP_HOME=/opt/bigdata/hadoop260 //我自己的Hadoop路径
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
进程于主机之间的关系
先激活一下hadoop的配置文件
[root@bigdata hadoop]# source /etc/profile
准备格式化hdfs
[root@bigdata hadoop]# hdfs namenode -format
启动上面的节点(5个)
[root@bigdata hadoop]# start-all.sh
查看后台进程命令:jps
停止进程
[root@bigdata hadoop]# stop-all.sh
//hdfs是正常命令 dfs 是文件目录操作命令 -ls 查看 / 根目录
[root@bigdata hadoop]# hdfs dfs -ls /
//创建一个文件夹
[root@bigdata hadoop]# hdfs dfs -mkdir /cm
[root@bigdata hadoop]# vi /opt/a.txt
[root@bigdata hadoop]# cat /opt/a.txt 查看文件夹
//将虚拟机里面的文件夹考到Hadoop系统里(U盘里)
[root@bigdata hadoop]# hdfs dfs -put /opt/a.txt /cm/
[root@bigdata hadoop]# hdfs dfs -ls /cm 查看一下
启动Hadoop命令:[root@bigdata hadoop]#start-all.sh
【注意!!!】
本机的ResourceManager端口和docker端口是同一个端口:192.168.56.101:8088
下次启动可能还会抢占端口,出现异常关闭dockers服务:[root@bigdata logs]# systemctl stop docker 启动 systemctl start docker
netstat:查看所有的网络数据结构的网络状态(端口号)
Hadoop 安装相关推荐
- Hadoop安装及eclipse配置
Hadoop安装 彻底关闭防火墙 chkconfig iptables off 查看主机名 hostname 修改主机名 vim /etc/sysconfig/network 修改之后不会立即执行需要 ...
- Hadoop安装与配置问题说明
说明:本博客对Hadoop安装与配置过程中可能存在的问题做简单记录 启动Hadoop hadoop@ubuntu16:/usr/local/java/hadoop/hadoop-2.7.1$ ./sb ...
- Hadoop 安装详解--新手必备
准备: 这次学习,我使用的是虚拟机vmware,安装了3台虚拟机,系统为centos 5(其它版本亦可),主机名依次命名为hdfs1.hdfs2.hdfs3,ip地址一次为:172.16.16.1.1 ...
- hadoop安装部署(伪分布及集群)
hadoop安装部署(伪分布及集群) @(HADOOP)[hadoop] hadoop安装部署伪分布及集群 第一部分伪分布式 一环境准备 二安装hdfs 三安装YARN 第二部分集群安装 一规划 一硬 ...
- hadoop安装与配置
转:链接: Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04 Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS 转载于:http ...
- Hadoop安装及配置
Hadoop的三种运行模式 单机模式(Standalone,独立或本地模式):安装简单,运行时只启动单个进程,仅调试用途: 伪分布模式(Pseudo-Distributed):在单节点上同时启动nam ...
- 大数据学习(2-1)-Hadoop安装教程-单机模式和伪分布模式(Ubuntu14.04LTS)
文章目录 目录 1.linxu的安装 1.1安装Linux虚拟机 1.2安装Linux和Windows双系统 2.Hadoop的安装 2.1 Hadoop安装前配置 2.1.1 配置Hadoop用户 ...
- Hadoop伪分布式配置和搭建,hadoop单机安装,wordcount实例测试,hadoop安装java目录怎么找,问题及问题解决方法
Hadoop伪分布式配置和搭建,hadoop单机安装,wordcount实例测试,hadoop安装java目录怎么找,问题及问题解决方法 环境说明 系统:ubuntu18.04 主机名:test1 用 ...
- hadoop服务器系统设置win10,win10系统hadoop安装配置的设置技巧
win10系统使用久了,好多网友反馈说关于对win10系统hadoop安装配置设置的方法,在使用win10系统的过程中经常不知道如何去对win10系统hadoop安装配置进行设置,有什么好的办法去设置 ...
- Hadoop安装(Ubuntu Kylin 14.04)
安装环境:ubuntu kylin 14.04 haoop-1.2.1 hadoop下载地址:http://apache.mesi.com.ar/hadoop/common/hadoop-1. ...
最新文章
- 服务器dbback文件夹,怎么让SQL 2000定时复制备份数据库到局域网中的指定电脑上? - SQL Server论坛 - 51CTO技术论坛_中国领先的IT技术社区...
- 关于C/S模式开发的学习笔记
- BZOJ-3876-支线剧情-Ahoi2014-上下界网络流
- mysql开启事务_MySQL入门之事务(上)
- 【题目分析】1059 Prime Factors (25 分)
- 数据结构与算法--有序数组中找出和为s的两个数字
- springboot启动太慢优化
- cocos2d-x 3.0 事件处理
- tp5ajax即点即改,TP5中即点即改,json分页,单删
- Flutter社区和资源传送门
- MixGo V1.0 发布,混合型高性能 Go 框架
- 硬盘文件系统系列之FAT
- 35岁学太极系列(1)-缘起功夫梦
- IE8补充前后缀快捷键
- C语言 输入今天的日期,显示明天的日期
- TVB西游记2观音的眼泪化作金河送唐僧回长安
- 苦难是人生最大的财富
- 如何利用ps去除图片水印和绘制图案
- [转贴]关于《功夫》一篇很好的评论
- 做保险,跟对人很重要