虚拟机安装
虚拟机安装ubuntu:两个节点 hadoop1,hadoop2。2G RAM,40G硬盘
网络模式选择桥接,然后打开混杂模式。就可以自动联网
|
|
java path:ls /usr/lib/jvm/java-8-oracle/
|
|
网络设置
修改网络设置固定ip:
|
|
这里要注意桥接选择的是wifi,你的addr必须和wifi在同一个局域网,gateway等也必须和主机的wifi一样。
hadoop1: 10.106.165.201
hadoop2: 10.106.165.202
|
|
|
|
添加/etc/host:
|
|
修改/etc/hostname
重启电脑
安装sshsudo apt-get install ssh
hadoop账户
adduser hadoop
将master的ssh key加入slave
master上
|
|
slave上
|
|
编译安装hadoop
编译hadoop$ mvn package -Pdist,native -DskipTests -Dtar
。我用的是从git拉下来的源代码的2.7.1.参考文献
将hadoop安装到/usr/local:
|
|
期间可能会遇到“hadoop is not in the sudoers file. This incident will be reported.”。这里有解决办法
将hadoop添加入path
|
|
配置分布模式
首先将datanode的名字写入/usr/local/hadoop/etc/hadoop/slaves文件,每行一个。
配置core-site.xml
|
|
hdfs-site.xml
|
|
mapred-site.xml
|
|
yarn-site.xml
|
|
配置好后执行:
|
|
之后启动hadoop
|
|
用jps看:
master上有NameNode、ResourceManager、SecondrryNameNode、JobHistoryServer 进程,slave可以看到DataNode 和 NodeManager 进程
常见问题
slave节点DataNode 无法启动
- 搭建了很多次,这个问题每次都出现,所以总结了一下:
- 防火墙没 解决办法:你懂得
- 所有节点 hosts 链表不统一,或有错误 解决办法:你懂得
- 查看节点日志提示namenode.rpc-address is not configured.发现node1没复制过去core-site.xml文件
- 因为多次 format namenode 造成 namenode 和 datanode 的 clusterID 不一致
解决方法:
方法一:更改 slave Cluster ID 与 master 相同
修改每一个 datanode 上面的 CID(位于 dfs/data/current/VERSION 文件夹中) 使两 者一致
方法二:删除所有节点/home/hadoop/hadoop-2.5.1/dfs/data/下 curren 目录 然后 重新 start-dfs.sh即可
参考文献
- Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS
- Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04
- Hadoop-2.5.1 编译安装步骤
本文采用创作共用保留署名-非商业-禁止演绎4.0国际许可证,欢迎转载,但转载请注明来自http://thousandhu.github.io,并保持转载后文章内容的完整。本人保留所有版权相关权利。