为什么我的幻灯片素材出不来(为什么看不见幻灯片内容?)
692
2022-05-29
大数据基础平台Hadoop完全分布式集群
完全分布式部署介绍
完全分部式是真正利用多台Linux主机来进行部署Hadoop,对Linux机器集群进行规划,使得Hadoop各个模块分别
部署在不同的多台机器上。
NameNode HA+完全分布式部署
部署规划
部署6台主机,注意每台主机的IP地址,主机名要不同,此处IP地址为192.168.1.10-60,主机为hd1-hd6
使用ntpdate命令同步6台主机时间:ntpdate time1.aliyun.com
更改hd1 hosts文件,增加域名
192.168.1.10 hd1
192.168.1.20 hd2
......
通过scp命令传给其他主机:scp /etc/hosts 192.168.1.20:/etc
以此类推
生成密钥对,使6台主机可以相互免密访问
首先在hd1上执行命令,生成密钥对:ssh-keygen -t rsa -f /root/.ssh/id_rsa -N ""
使用for循环将生成的密钥对发到各个主机:
for i in hd{2..6}
> do
> scp -r /root/.ssh $i:/root
> done
部署jdk环境,上传jdk二进制软件包,然后解包到当前目录:
tar xf jdk-8u191-linux-x64.tar.gz
移动到local目录下命名为jdk:
mv jdk1.8.0_191 /usr/local/jdk
使用for循环将解好的包scp到其他主机上:
for i in hd{2..6}
do
scp -r /usr/local/jdk $i:/usr/local
done
配置环境变量:vim /etc/profile
export JAVA_HOME=/usr/local/jdk
export PATH=${JAVA_HOME}/bin:$PATH
将配置好的环境变量文件使用for循环,拷贝到其他主机:
for i in hd{2..6}
do
scp -r /etc/profile $i:/etc
done
拷贝成功,全部执行source /etc/profile
Java jdk环境部署成功
根据上面的规划,我们在编号为hd4-6的主机上部署zookeeper
上传zookeeper包到hd4主机上,解包:tar xf zookerper
移动到local下:mv zookerper /usr/local/zookerper
复制、修改配置文件:
cp /usr/local/zookerper/conf/zoo_sample.cfg /usr/local/zookerper/conf/zoo.cfg
配置cfg文件,更改dataDir目录如图:
在文件末尾增加主机验证
在opt目录下创建data目录:mkdir /opt/data
将1写入myid:echo “1” > /opt/data/myid
其余hd5、hd6主机也同样创建data目录
将2、3写入hd5、hd6的myid文件
将配置文件cfg拷贝到其余主机zookeeper的conf目录下
for i in hd{5..6}
> do
> scp -r /usr/local/zookeeper $i:/usr/local/zookeeper
> done
添加环境变量:vim /etc/profile
将环境变量文件复制到其他主机:scp /etc/profile hd5:/etc/profile
scp /etc/profile hd6:/etc/profile
挨个source
三台主机启动zookeeper服务:zkServer.sh start
查看zookeeper服务状态:zkServer.sh status
部署Hadoop
Hd1主机上传Hadoop软件包
解压到opt目录下:tar xf hadoop2.8.5 -C /opt/hadoop285
更改环境变量vim /etc/profile
键入source /etc/profile
把profile文件发给其他主机:scp /etc/profile hd2:/etc/profile
scp /etc/profile hd3:/etc/profile
更改hd4主机profile文件
键入source /etc/profile
把profile文件发送给其他主机:scp /etc/profile hd5:/etc/profile
scp /etc/profile hd6:/etc/profile
配置hd1的hadoop
修改hadoop-env.sh 25行;mapred-env.sh 16行;yarn-env.sh 23行(针对hadoop285版本)
改为:export JAVA_HOME=/usr/local/jdk
修改core-site.xml
修改hdfs-site.xml
e> 配置datanode节点记录文件slaves hd4 hd5 hd6 配置mapred-site.xml 复制mapred-site.xml.template为mapred-site.xml: cp /opt/hadoop285/etc/hadoop/mapred-site.xml.template /opt/hadoop285/etc/hadoop/mapred-site.xml 配置mapred-site.xml文件 配置yarn-site.xml文件 将配置文件传到所有主机 传输时间较长,一般在20分钟左右 传输完毕,所有主机执行source /etc/profile 启动集群 在datanode节点(hd4-6)启动zookeeper:zkServer.sh start 启动journalnode(在namenode上操作,例如hd1):hadoop-darmons.sh start journalnode 分别到hd4、5、6节点上验证:jps 格式化hdfs文件系统(在namenode上操作,例如hd1):hdfs namenode -format 复制到hd2主机:scp -r /opt/data hd2:/opt 格式化zk(namenode上操作,例如hd1):hdfs zkfc -formatZK 启动hdfs(在namenode上操作,例如hd1):start-dfs.sh 启动yarn(namenode上操作,例如想让hd2成为resourcemanager,需要在hd2上启动,此处在hd3启动):start-yarn.sh 测试集群 创建文件txt文件 将文件上传hdfs文件系统:hdfs dfs -mkdir /input hdfs dfs -put test.txt /input yarn jar /opt/hadoop285/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar wordcount /input /output/00 查看结果hdfs dfs -cat /output/00/part-r-00000 附件: 大数据基础平台Hadoop集群之Ambari实践.docx 1.02MB 下载次数:0次 Hadoop ssh 云计算 任务调度 大数据
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。