Windows系统搭建hadoop

实验环境:
windows10操作系统
安装包
jdk-8u221-windows-x64
apache-hadoop-3.1.0-winutils-master.zip
hadoop-3.2.0.tar

【java环境配置】
默认安装
配置环境变量
JAVA_HOME : C:\PROGRA~1\Java\jdk1.8.0_221
Path : %JAVA_HOME%\bin

C:\Users\dell>java -version   //验证版本
java version "1.8.0_221"
Java(TM) SE Runtime Environment (build 1.8.0_221-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.221-b11, mixed mode)

【hadoop配置】
解压:以管理员身份运行rar解压hadoop-3.2.0.tar到D:
错误:err1目标路径太长(执行跳过)

配置环境变量
HADOOP_HOME : D:\hadoop-3.2.0
Path : %HADOOP_HOME%\bin
Path : %HADOOP_HOME%\sbin

C:\Users\dell>hadoop version      //验证版本
Hadoop 3.2.0
Source code repository https://github.com/apache/hadoop.git -r e97acb3bd8f3befd27418996fa5d4b50bf2e17bf
Compiled by sunilg on 2019-01-08T06:08Z
Compiled with protoc 2.5.0
From source with checksum d3f0795ed0d9dc378e2c785d3668f39
This command was run using /D:/hadoop-3.2.0/share/hadoop/common/hadoop-common-3.2.0.jar

hadoop-3.2.0\etc\hadoop下有四个配置文件
core-site.xml    全局配置
hdfs-site.xml    hdfs的局部配置
mapred-site.xml    mapred的局部配置
yarn-site.xml    yarn的局部配置

core-site.xml下的配置:

<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property>
</configuration>

hdfs-site.xml下的配置:

<configuration><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.http.address</name><value>0.0.0.0:9870</value></property>
</configuration>
然后在Hadoop3.1.2的安装目录下建个目录/data,再在这个目录下建两个目录,一个叫namenode,一个叫datanode,把两个目录的路径添加到这个配置文件里:<property><name>dfs.namenode.name.dir</name><value>/D:/hadoop-3.2.0/data/namenode</value> </property><property><name>dfs.datanode.data.dir</name><value>/D:/hadoop-3.2.0/data/datanode</value> </property>

mapred-site.xml下的配置:

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property>
</configuration>

yarn-site.xml下的配置:

<configuration><property><name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name><value>mapreduce_shuffle</value><description>shuffle service that needs to be set for Map Reduce to run </description></property>
<configuration>

将D:\hadoop-3.2.0\share\hadoop\yarn\timelineservice所有文件复制到D:\hadoop-3.2.0\share\hadoop\yarn,如果不这样操作ResourceManager可能启动不起来。

C:\Users\dell>hadoop namenode -format            //初始化hadoop

C:\Users\dell>start-all        //启动所有服务
This script is Deprecated. Instead use start-dfs.cmd and start-yarn.cmd
starting yarn daemons

C:\Users\dell>jps     查看服务运行情况
8672 Jps
10196 DataNode
6436 ResourceManager
7556 NameNode
9400 NodeManager
C:\Users\dell>stop-all    //关闭所有服务
This script is Deprecated. Instead use stop-dfs.cmd and stop-yarn.cmd
成功: 给进程发送了终止信号,进程的 PID 为 8148。
成功: 给进程发送了终止信号,进程的 PID 为 6828。
stopping yarn daemons
成功: 给进程发送了终止信号,进程的 PID 为 8276。
成功: 给进程发送了终止信号,进程的 PID 为 7544。信息: 没有运行的带有指定标准的任务。

http://127.0.0.1:8088/cluster        查看集群状态

http://localhost:9870            查看Hadoop状态【hadoop2.x为50070 3.x为9870】

测试文件管理
C:\Users\dell>hadoop fs -rmdir hdfs://localhost:9000/test/C:\Users\dell>hadoop fs -mkdir hdfs://localhost:9000/test/C:\Users\dell>hadoop fs -mkdir hdfs://localhost:9000/test/input1C:\Users\dell>hadoop fs -mkdir hdfs://localhost:9000/test/input2C:\Users\dell>hadoop fs -put D:\hadoop.txt hdfs://localhost:9000/test/input1
Found 1 items
-rw-r--r--   1 dell supergroup          6 2019-09-12 16:25 hdfs://localhost:9000/test/input1/hadoop.txtC:\Users\dell>hadoop fs -ls hdfs://localhost:9000/test/
Found 2 items
drwxr-xr-x   - dell supergroup          0 2019-09-12 16:25 hdfs://localhost:9000/test/input1
drwxr-xr-x   - dell supergroup          0 2019-09-12 16:25 hdfs://localhost:9000/test/input2C:\Users\dell>hadoop fs -rm -r -f hdfs://localhost:9000/test/input1
Deleted hdfs://localhost:9000/test/input1C:\Users\dell>hadoop fs -ls hdfs://localhost:9000/test/
Found 1 items
drwxr-xr-x   - dell supergroup          0 2019-09-12 16:25 hdfs://localhost:9000/test/input2

Linux系统搭建hadoop

实验环境:
Centos7
root权限
安装包
hadoop-3.2.0.tar.gz
jdk-8u221-linux-x64.tar.gz

【java环境配置】
 tar -zxvf jdk-8u221-linux-x64.tar.gz
vi /etc/profile
>{
export JAVA_HOME=/root/jdk1.8.0_221
export JRE_HOME=/root/jdk1.8.0_221/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$JAVA_HOME:$PATH
>}
source /etc/profile    #刷新配置

【安装hadoop】
sudo tar -zxvf hadoop-3.2.0.tar.gz
cd hadoop-3.2.0
mkdir hdfs
mkdir hdfs/tmp
mkdir hdfs/name
mkdir hdfs/data
cd etc/hadoop/
sudo vi /etc/profile
>{
export HADOOP_HOME=/root/hadoop-3.2.0
export PATH="$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH"
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
>}
source /etc/profile

sudo vi hadoop-env.sh
>{
JAVA_HOME=$JAVA_HOME #注意去掉注释
>}
四个配置文件和上面介绍windows的安装是一样的,修改一下路径就可以

初始化hadoop
hadoop namenode -format

start-all.sh
在执行启动所有服务的时候会出现不能使用root权限进行启动,做以下操作
>{
vi /root/hadoop-3.2.0/sbin/start-dfs.sh
vi /root/hadoop-3.2.0/sbin/stop-dfs.sh

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

vi /root/hadoop-3.2.0/sbin/start-yarn.sh
vi /root/hadoop-3.2.0/sbin/stop-yarn.sh
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
>}

[root@localhost hadoop]# jps
4128 DataNode
6996 NodeManager
6295 NameNode
6855 ResourceManager
7309 Jps
6606 SecondaryNameNode

systemctl stop firewalld.service#关闭防火墙,访问web8088,9870端口

分布式系统基础架构hadoop搭建相关推荐

  1. BigData之Hadoop:Hadoop框架(分布式系统基础架构)的简介(两大核心【HDFS存储和MapReduce计算】)、深入理解、下载、案例应用之详细攻略

    BigData之Hadoop:Hadoop框架(分布式系统基础架构)的简介(两大核心[HDFS存储和MapReduce计算]).深入理解.下载.案例应用之详细攻略 目录 Hadoop的简介(分布式系统 ...

  2. SpringCloud系列二:Restful 基础架构(搭建项目环境、创建 Dept 微服务、客户端调用微服务)...

    声明:本文来源于MLDN培训视频的课堂笔记,写在这里只是为了方便查阅. 1.概念:Restful 基础架构 2.具体内容 对于 Rest 基础架构实现处理是 SpringCloud 核心所在,其基本操 ...

  3. 大数据基础架构Hadoop,终于有人讲明白了

    导读:大数据正在成为经济社会发展的新的驱动力.随着云计算.移动互联网等网络新技术的应用和发展,社会信息化进程进入大数据时代,海量数据的产生与流转成为常态.而大数据技术也如雨后春笋般正在蓬勃发展中.Ha ...

  4. [ hadoop ] hadoop入门 : 组成架构.环境搭建.运行模式

    1 大数据概论 概念: 指无法在一定时间范围内用常规软件工具进行捕捉.管理和处理的数据集合,是需要新处理模式才能具有更强的决策力.洞察发现力和流程优化能力的海量.高增长率和多样化的信息资产. 需求: ...

  5. 大数据基础(hadoop环境搭建及使用)

    大数据 大数据概念 大数据特点(4V) Volume(大量) Velocity(高速) Variety(多样) Value(低价值密度) Hadoop Hadoop是什么 Hadoop 三大发行版本 ...

  6. Hadoop的基础架构

    Hadoop这个名字现在对很多开发者来说,并不陌生,但是很多开发者对其工作原理和架构并不了解.Hadoop怎么实现的分布式存储和分布式计算,其计算性能为什么会提高那么多.本文将从其基本工作原理方面解释 ...

  7. Hadoop是什么?(处理大数据存储和分析的基础架构)

    Hadoop是一个由Apache基金会所开发的分布式系统基础架构.用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力进行高速运算和存储.Hadoop实现了一个分布式文件系统(H ...

  8. hadoop搭建_阿里云搭建Hadoop集群

    1 前言 在讲述Hadoop集群搭建之前,首先要了解Hadoop和集群两个名词,Hadoop是由Apache基金会开发的分布式系统基础架构,简单理解就是大数据技术应用的基础.集群可以理解为多台装有ha ...

  9. b2c项目基础架构分析(一)b2c 大型站点方案简述 已补充名词解释

    b2c项目基础架构分析(一)b2c 大型站点方案简述 已补充名词解释 我最近一直在找适合将来用于公司大型bs,b2b b2c的基础架构. 实际情况是要建立一个bs架构b2b.b2c的网站,当然还包括w ...

最新文章

  1. java无法编译_Java静态方法无法编译
  2. python中国大学排名爬虫写明详细步骤-【Python爬虫】从html里爬取中国大学排名...
  3. 基本粒子群算法(PSO)的改进
  4. 产品经理学PMP,有必要吗?
  5. 读配置文件能够保持顺序的 Java Properties 类
  6. iis php5.4配置_IIS 8+PHP5.4+SQL server2012配置
  7. javafx8配置参数列表
  8. ASP.NET Core学习之五 EntityFrameworkCore
  9. oracle varchar2() 占几个字母,Oracle number date varchar2字段类型占用空间大小
  10. PHP多进程网络爬虫
  11. 数据库设计(有实例)
  12. IReport导出PDF字体加粗失效
  13. 如何把视频文件转换成图片
  14. 深度学习服务器?深度了解一下!
  15. 基础光照-Phong 光照模型
  16. python实战篇(五)---百度api实现车型识别
  17. 双足竞走机器人的意义_基于STM32双足竞步机器人的研究与设计
  18. python中自然数e怎么表示_python e怎么表示
  19. springboot/springcloud整合mybatis(mysql)
  20. Bayesian Face Revisited A Joint Formulation

热门文章

  1. JDK不同操作系统的FileSystem(Windows)下篇
  2. C语言int16_t和uint16_t的区别
  3. 《Cocos Creator游戏实战》贪吃蛇平滑移动
  4. 排查Java的内存问题
  5. 2020速卖通开店全流程及新手卖家新店运营思路
  6. QT下载安装调试运行(QT5.5.1+VS2013)
  7. Linux Reader单文件版,Linux Reader(查看Linux硬盘分区)
  8. Android开发_SQLite数据库
  9. IDEA安装阿里巴巴编码规范
  10. 如何将onnx转ncnn供移动端推理使用