Hadoop集群搭建,hadoop集群搭建完整教程

Hadoop集群搭建
免密登陆服务器
——实现免密登录前提是另一个虚拟机得开启,且防火墙关闭,如果完成此步骤之后不能成功免密登录可以看看是否是这两个原因
在/etc/hosts文件中配置ip对应主机 IP地

免密登陆服务器

—— 无密码登录的先决条件是必须打开另一台虚拟机并且必须关闭防火墙。如果完成此步骤后,您无法在无密码的情况下成功登录,您可以检查是否是以下两种原因之一导致:

在/etc/hosts文件中配置IP对应的主机。

IP地址主机

IP地址节点1

生成私钥

ssh-keygen -t rsa -P \”\” //生成密钥的命令

//按回车后会看到以下内容,所以回车后不要再输入任何内容。

生成公钥/私钥RSA 密钥对。

请输入保存密钥的文件(/root/.ssh/id_rsa):

我创建了一个目录“/root/.ssh”。

您的ID 存储在/root/.ssh/id_rsa 中。

公钥存储在/root/.ssh/id_rsa.pub 中。

密钥指纹为:

SHA256:AtZHQcFd10Qth+HXMib4saDzZhtYJBkS5VEyH04RiNM root@d23abd7ce7a9

密钥的随机艺术图像是: //密钥

[RSA 2048]—-+

|oB@**+.o*+|

|.o+EX.o oo=|

|o…=* o=oo|

| + o=+ |。

|.S.o|

|。=|

|。=|

|哦|

|.|

—[SHA256]—-+

//再次输入以下命令

cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

删除PermitRootLogin yes 和PubkeyAuthentication yes 的注释。即去掉前面的#。

sh-4.2# vim /etc/ssh/sshd_config

sh-4.2# systemctl 启用sshd.service

sh-4.2# systemctl 启动sshd.service

然后输入以下命令就完成了

cd$HOME/.ssh/

chmod 600 身份验证密钥

SSH 本地主机

scp -r ~/.ssh root@node1:~///这里的node1是克隆虚拟机的主机名。替换您自己的主机名。

无需密码登录认证

ssh节点1

成功!

配置Hadoop

—— 此代码可能在我的机器上运行,但您可能无法在其他机器上遵循此代码。如果失败,可以找到其他代码并尝试设置。

将Hadoop安装包上传到服务器

解压安装包

[root@master tools]# tar -xvf hadoop-3.2.3.tar.gz //你自己的Hadoop文件名

[root@master tools]# mv hadoop-3.2.3 /usr/local/hadoop3 //将解压后的Hadoop文件移动到/usr/local/hadoop3目录

修改master节点上的Hadoop配置文件,修改配置文件/etc/profile,在文章最后添加如下配置。

import HADOOP_HOME=/usr/local/hadoop3 //path是你上一步传入的目录

导出路径=

A

时间

H

:

路径:

PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin

导出HADOOP_COMMON_HOME=$HADOOP_HOME

导出HADOOP_PREFIX=$HADOOP_HOME

导出HADOOP_HDFS_HOME=$HADOOP_HOME

导出HADOOP_MAPRED_HOME=$HADOOP_HOME

导出HADOOP_YARN_HOME=$HADOOP_HOME

导出HADOOP_INSTALL=$HADOOP_HOME

导出HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

导出HADOOP_CONF_DIR=$HADOOP_HOME

导出HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec

导出JAV_LIBRARY_PATH=

H

A

D

_

H

中号

/

/

n

t

v

e

:

HADOOP\\_HOME/lib/native:

HADOOP_HOME/lib/native:JAVA_LIBRARY_PATH

导出HADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoop

导出HDFS_DATANODE_USER=root

导出HDFS_DATANODE_SECURE_USER=root

导出HDFS_SECONDARYNAMENODE_USER=root

导出HDFS_NAMENODE_USER=root

导出YARN_RESOURCEMANAGER_USER=root

导出YARN_NODEMANAGER_USER=root

使用source 命令启用设置。

源/etc/profile

检查环境变量是否设置

回显$HADOOP_HOME

显示为/etc/profile 文件中HADOOP_HOME 的位置。

修改hadoop-env.sh等文件

[root@d422409c8ce5 hadoop]# vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh

[root@d422409c8ce5 hadoop]# vim $HADOOP_HOME/etc/hadoop/yarn-env.sh

[root@d422409c8ce5 hadoop]# vim $HADOOP_HOME/etc/hadoop/mapred-env.sh

在文末添加jdk安装路径。

添加node1信息(您克隆的虚拟机的名称)。

vi $HADOOP_HOME/etc/hadoop/workers

添加内容:节点1

将以下文件的配置更改为以下内容:

vim $HADOOP_HOME/etc/hadoop/core-site.xml

fs.defaultFS

hdfs://master:9000

hadoop.tmp.dir

/home/hadoop/tmp

io.file.buffer.size

131702

hadoop.http.staticuser.user

vim $HADOOP_HOME/etc/hadoop/hdfs-site.xml

dfs.namenode.name.dir

file:/home/hadoop/tmp/dfs/名称

dfs.datanode.data.dir

文件:/home/hadoop/tmp/dfs/data

dfs.复制

3

dfs.namenode.http-地址

师傅:50070

NameNode地址和端口

dfs.namenode.secondary.http-地址

师傅:50090

辅助名称节点地址和端口

dfs.webhdfs.启用

真相

dfs.流缓冲区大小

131072

dfs.namenode.checkpoint.dir

file:/home/hadoop/tmp/dfs/namesecondary

vim $HADOOP_HOME/etc/hadoop/mapred-site.xml

mapreduce.framework.name

线

MapReduce.作业历史记录.地址

师傅:10020

mapreduce.jobtracker.地址

师傅:9001

MapReduce.作业历史记录.Web 应用程序.地址

师傅:19888

mapreduce.application.classpath

/usr/local/hadoop3/etc/hadoop,

/usr/local/hadoop3/share/hadoop/common/*,

/usr/local/hadoop3/share/hadoop/common/lib/*,

/usr/local/hadoop3/share/hadoop/hdfs/*,

/usr/local/hadoop3/share/hadoop/hdfs/lib/*,

/usr/local/hadoop3/share/hadoop/mapreduce/*,

/usr/local/hadoop3/share/hadoop/mapreduce/lib/*,

/usr/local/hadoop3/share/hadoop/yarn/*,

/usr/local/hadoop3/share/hadoop/yarn/lib/*

vim $HADOOP_HOME/etc/hadoop/yarn-site.xml

纱线.资源管理器.主机名

掌握

thread.nodemanager.aux-services

映射Reduce_Shuffle

thread.nodemanager.auxservices.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

线程.资源管理器.地址

师傅:8032

thread.resourcemanager.scheduler.address

师傅:8030

thread.resourcemanager.resource-tracker.address

师傅:8031

线程.resourcemanager.admin.地址

${yarn.resourcemanager.主机名}:8033

thread.resourcemanager.webapp.address

师傅:8088

我们专门整理了上百道【运维技术栈面试题】,成为您运维面试路上的好助手。这样,你就可以毫无惊慌地参加面试并获得高薪offer。

这些面试题涵盖了从Shell、MySQL到K8s等云原生技术栈,适合运维行业新人以及运维行业新人的面试需求。升职或换工作以增加薪水。

本次访谈集内容为

174 运维工程师面试题128 k8s 面试题108 shell 脚本面试题200 Linux 面试题51 Docker 面试题35 Jenkis 面试题78 MongoDB 面试题17 ansible 面试题60 dubbo 面试题53 Kafka 面试题18 mysql 面试题40 nginx面试题题77 redis面试题Zookeeper题28

总共1000多道面试题,内容全面且有价值。

174道运维工程师面试题

1.什么是运维?

2、运维人员在工作场所经常需要与操作人员进行交互。运营人员做什么工作?

3. 您目前有300台服务器,您如何管理它们?

4. 简要说明RAID0和Raid1raid5这两种工作模式的工作原理和特点。

5、LVS、Nginx、HAproxy有什么区别?

6. Squid、Varinsh、Nginx 有什么区别,你在工作中如何选择?

7.Tomcat和Resin有什么区别?

8.什么是中间件?

9、Tomcat中的8005、8009、8080这三个端口是什么意思?

10.什么是CDN?

11.什么是网站灰度发布?

12、请简单说明一下DNS域名解析的过程。

13.什么是RabbitMQ?

14.Keepalived如何工作?

15.描述LVS工作流程的三种模式。

16、mysql的innodb如何识别锁定问题以及mysql如何减少主从复制延迟?

问题**

Jenkis面试题35道,MongoDB面试题78道,ansible面试题17道,dubbo面试题60道,kafka面试题53道,mysql面试题18道,nginx面试题40道,redis面试题77道,Zookeeper面试题28道。

总共1000多道面试题,内容全面且有价值。

174道运维工程师面试题

1.什么是运维?

2、运维人员在工作场所经常需要与操作人员进行交互。运营人员做什么工作?

3. 您目前有300台服务器,您如何管理它们?

4. 简要说明RAID0和Raid1raid5这两种工作模式的工作原理和特点。

5、LVS、Nginx、HAproxy有什么区别?

6. Squid、Varinsh、Nginx 有什么区别,你在工作中如何选择?

7.Tomcat和Resin有什么区别?

8.什么是中间件?

9、Tomcat中的8005、8009、8080这三个端口是什么意思?

10.什么是CDN?

11.什么是网站灰度发布?

12、请简单说明一下DNS域名解析的过程。

13.什么是RabbitMQ?

14.Keepalived如何工作?

15.描述LVS工作流程的三种模式。

16、mysql的innodb如何识别锁定问题以及mysql如何减少主从复制延迟?

17.如何重置mysql root密码?

以上#Hadoop集群搭建相关内容来源网络,仅供参考。相关信息请参见官方公告。

原创文章,作者:CSDN,如若转载,请注明出处:https://www.sudun.com/ask/92011.html

(0)
CSDN's avatarCSDN
上一篇 2024年6月24日 下午2:32
下一篇 2024年6月24日 下午2:32

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注