本文共 1005 字,大约阅读时间需要 3 分钟。
一、首先把hadoop二进制包和jdk的文件包download下来,并放置到合适目录的路径来解压(步骤省略)
二、在主机器上的hadoop解压出来的目录创建一个目录是专门放置hdfs的文件,把解压好的jdk包传去从的机器那
三、添加环境变量
设置JDK的环境变量 JAVA_HOME。需要修改配置文件/etc/profile最后来追加一下内容: export JAVA_HOME=/usr/local/src/jdk1.6.0_45 #export JRE_HOME=$JAVA_HOME/jre export PATH=$JAVE_HOME/bin:$JAVA_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib修改完毕后,执行 source /etc/profile
执行 java –version,可以看见已经安装完成。
[root@spark ~]# java -version java version "1.6.0_45" Java(TM) SE Runtime Environment (build 1.6.0_45-b06) Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)四、修改好/etc/hosts和/etc/sysconfig/network(一主两从)
五、部署好公钥,然后cat id_rsa.pub >> authorized_keys
六、把hosts、authorized_keys文件和/etc/profile传过去从的机器。 七、编辑hadoop的文件在hadoop/conf里的hadoop_env.sh最后那里添加java环境变量的位置
export JAVA_HOME=/usr/local/src/jdk1.6.0_45八、把已经主机配置好的hadoop,整个目录scp到从的机器那里
九、在主机上hadoop的bin目录执行: ① ./hadoop namenode -format ② ./start-all.sh 十、检查一下hadoop环境有没问题本文转自wsw26 51CTO博客,原文链接:http://blog.51cto.com/wsw26/2050284,如需转载请自行联系原作者