Hadoop搭建分布式

网友投稿 641 2022-05-30

概念

海量、高增长、多样化的信息数据

有三大发行版本

Apache、CDH、HDP

Hadoop搭建伪分布式

1、高可靠性:

Hadoop假设计算元素和存储会出现故障,因为它维护多个工作数据副本,在出现故障时可以对失败节点重新分布处理。

2.高扩展性:

在集群间分配任务数据,可方便扩展数以千计的节点。

3.高效性:

在MapReduce的思想下,Hadoop是并行工作的,以加快任务处理速度。

4.高容错性:

自动保存多份副本数据,并且能够自动将失败的任务重新分配。

Hadoop HDFS:一个高可靠、高吞吐的分布式文件系统。

Hadoop MapReduce:一个分布式的离线并行计算框架。

Hadoop YARN:一个资源调度平台,负责为运算程序提供服务器运算资源,相当于一个分布式的操作系统,而MaoReduce等运算程序则相当于运算于操作系统之上的应用程序。

ResourceManager:一个中心服务,用来调度、启动每一个Job所属的ApplicationMaster。

NodeManager:是每台机器框架的代理,是执行应用程序的容器,监控应用程序的资源使用情况,并向调度器汇报。

Hadoop Common:Hadoop体系最底层的一个模块,为Hadoop各个子项目提供各种工具,如:配置文件和日志操作等。

本地模式(默认模式):不需要启用单独进程,直接可以在运行、测试和开发时使用。

伪分布式模式:等同于完全分布式,只有一个节点。

完全分布式模式:多个节点一起运行。

安装JDK,配置环境变量

安装HADOOP,配置环境变量

vi /etc/profile export JAVA_HOME=JDK路径 export HADOOP_HOME=hadoop路径 PATH=$PATH:$JAVA_HOME/bin PATH=$PATH:$HADOOP_HOME/bin PATH=$PATH:$HADOOP_HOME/sbin

1

2

3

4

5

6

7

保存后刷新

source /etc/profile

1

(1)hadoop-env.sh

export JAVA_HOME=JDK路路径

1

(2)core-site.xml

fs.defaultFS hdfs://主机名:9000 hadoop.tmp.dir /hadoop安装目录/data/tmp

1

2

3

4

5

6

7

8

9

10

11

12

(3)hdfs-site.xml

dfs.replication 1

1

2

3

4

5

6

7

(1)格式化namenode

hdfs namenade -format

1

只需要在修改配置后格式化一次,格式化后会生成data和logs文件夹。

(2)启动namenode

hadoop-daemon.sh start namenode

1

(3)启动datanode

hadoop-daemon.sh start datanode

1

(1)jps(类似ps命令,只列出java相关程序进程)

(2)查看日志,hadoop安装目录下的logs文件夹

(3)使用hadoop系统自带的web程序

http://主机名或ip:50070 访问HDFS系统

hadoop提供三套操作集群的命令,命令格式相同,①hdfs dfs,②hadoop dfs,③hadoop fs,使用hadoop fs,可操作任何类型的文件系统,其他两种只能操作HDFS.

(1)HDFS上创建文件夹

hadoop fs -mkdir -p /hdfs上文件夹路径

1

(2)从linux上传文件到HDFS

hadoop fs -put linux上文件路径 /hdfs上文件夹路径

1

(3)查看HDFS目录结构和文件内容

hadoop fs -ls /hdfs上文件夹路径 hadoop fs -cat /hdfs上文件路径

1

2

(4)在HDFS上运行官方示例

hadoop jar hadoop安装目录/share/hadoop/mapreduce/hadoop-mapreduce-examples-版本号.jar 示例程序名称(wordcount) /HDFS输入文件夹 /HDFS输出文件夹 #输出文件夹不可事先拥有。

1

2

3

(5)从HDFS上下载文件到linux

hadoop fs -get /hdfs上文件路径 /linux文件夹

1

(6)HDFS删除

hadoop fs -rmr /hdfs上文件或文件夹路径

1

(1)在yarn-env.sh和mapred-env.sh中配置JAVA_HOME

(2)yarn-site.sml

yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname 主机名

1

2

3

4

5

6

7

8

9

10

(3)mapred-site.sml

mapreduce.framework.name yarn

1

2

3

4

5

在yarn集群上提交任务,等任务执行完成后,就不能查看log文件了,为了解决这个问题,可以开启historyserver,实现yarn集群上历史任务的保存,yarn的web程序中每一个job都对应一个history的链接。

mapreduce.jobhistory.address 主机名:10020 mapreduce.jobhistory.webapp.address 主机名:19888

1

2

3

4

5

6

7

8

9

10

必须先启动HDFS,再启动YARN。停止时先停止YARN,再停止HDFS

(1)格式化namenode(需先删除data和logs文件夹)

hdfs namenode -format

1

(2)启动NameNode和DataNode

hadoop-daemon.sh start namenode hadoop-daemon.sh start datanode

1

2

(3)启动ResourceManager和NodeManager

yarn-daemon.sh start resourcemanager yarn-daemon.sh start nodemanager

1

2

(1)查看yarn的web程序:http://主机名:8088

(2)命令行操作HDFS:hadoop fis -xxx

(3)查看HDFS的web程序:http://主机名:50070

(4)执行官方测试程序dataword

hadoop jar hadoop安装目录/share/hadoop/mapreduce/hadoop-mapreduce-examples-版本号.jar wordcount /HDFS输入文件夹 /HDFS输出文件夹

1

2

输出文件夹不可事先拥有。输入文件为统计每个单词个数,实现常见一个文本,编写若干个单词,空格或换行分割。然后上传到HDFS上,事先创建输入文件夹,将该文档上传于输入文件夹,最后运行上面命令。执行完成可查看输出文件夹内文件内容,便为“单词 个数”数行形式展现。

Hadoop 分布式

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:张小白教你如何在Ununtu 18.04上源码安装MindSpore Lite V1.1.0
下一篇:从python编译到运行pyspark样例
相关文章