摘要:命令如果是集群做这一步将上的放到其他的目录下。命令远程主机用户名远程主机名或存放路径。修改权限,命令测试是否成功输入用户名密码,然后退出,再次不用密码,直接进入系统。
①修改主机名
hostnamectl set-hostname hadoop00
②添加hadoop 用户
创建hadoop 用户
[root@hadoop00 ~]# adduser hadoop
为hadoop用户设置密码
[root@hadoop00 ~]# passwd hadoop
为hadoop用户设置root权限 在sudoers中添加下面内容
[root@hadoop00 ~]# vim /etc/sudoers
hadoop ALL=(ALL) ALL
③配置免密码登陆
-- 配置ssh,实现无密码登陆
每台虚拟机上,使用
ssh-keygen -t rsa
一路按回车就行了。
打开~/.ssh
[hadoop@hadoop001 .ssh]$ sudo cat id_rsa.pub >> authorized_keys
①在master上将公钥放到authorized_keys里。命令:sudo cat id_rsa.pub >> authorized_keys
② 如果是集群做这一步 将master上的authorized_keys放到其他linux的~/.ssh目录下。
命令:sudo scp authorized_keys hadoop@10.10.11.192:~/.ssh
sudo scp authorized_keys 远程主机用户名@远程主机名或ip:存放路径。
③修改authorized_keys权限,命令:chmod 644 authorized_keys
④测试是否成功
ssh hadoop00 输入用户名密码,然后退出,再次ssh hadoop00不用密码,直接进入系统。这就表示成功了。
④下载jdk 和 hadoop 放到 ~/software目录下 然后解压到 ~/app目录下
tar -zxvf 压缩包名字 -C ~/app/
⑤配置环境变量
vi ~/.bash_profile
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_91
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_HOME=/home/hadoop/app/hadoop......
export PATH=$HADOOP_HOME/bin:$PATH
#保存退出后
source ~/.bash_profile
⑥进入到解压后的hadoop目录
cd etc/hadoop
vi hadoop-env.sh
#找到下面内容添加java home
export_JAVA_HOME=/home/hadoop/app/jdk1.8.0_91
fs.default.name
hdfs://hadoop000:8020
dfs.namenode.name.dir
/home/hadoop/app/tmp/dfs/name
dfs.datanode.data.dir
/home/hadoop/app/tmp/dfs/data
dfs.replication
1
cp mapred-site.xml.template mapred-site.xml
在mapred-site.xml 的configuration 节点中添加
mapreduce.framework.name
yarn
yarn.nodemanager.aux-services
mapreduce_shuffle
⑦来到hadoop的bin目录
./hadoop namenode -format (这个命令只运行一次)
⑧ 启动hdfs 进入到 sbin
./start-dfs.sh
⑨ 启动启动yarn 在sbin中
./start-yarn.sh
启动后 jps 看到 说明伪分布式搭建成功
6145 DataNode
6514 ResourceManager
6612 NodeManager
67065 Jps
6282 SecondaryNameNode
6046 NameNode
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/125934.html
摘要:总之,项目还算很受欢迎吧,这篇博客将介绍项目的升级版。一项目介绍将打包到镜像中,就可以快速地在单个机器上搭建集群,这样可以方便新手测试和学习。之前的版本使用为集群提供服务,由于网络功能更新,现在并不需要了。运行参考第二部分启动,并运行。 摘要: kiwenlau/hadoop-cluster-docker是去年参加Docker巨好玩比赛开发的,得了二等奖并赢了一块苹果手表,目前这个项目...
摘要:由于最近在做一个小比赛,,需要搭建数据处理平台,,由于数据量比较大,因此选择了,本人并不是很熟悉这个平台,,因此搭建过程中遇到了许多问题,,所以想记录一下,以后可能会用到。 由于最近在做一个小比赛,,需要搭建数据处理平台,,由于数据量比较大,因此选择了Hadoop,本人并不是很熟悉这个平台,,因此搭建过程中遇到了许多问题,,所以想记录一下,以后可能会用到。搭建过程并不困难,由于手上没...
阅读 3514·2023-04-25 20:09
阅读 3720·2022-06-28 19:00
阅读 3035·2022-06-28 19:00
阅读 3058·2022-06-28 19:00
阅读 3131·2022-06-28 19:00
阅读 2859·2022-06-28 19:00
阅读 3014·2022-06-28 19:00
阅读 2610·2022-06-28 19:00