现在的位置: 首页 > 综合 > 正文

CentOS 6.5 伪分布安装

2015年10月30日 ⁄ 综合 ⁄ 共 3520字 ⁄ 字号 评论关闭
文章目录

CentOS 6.5 伪分布安装

软件准备  jdk-6u24-linux-i586.bin 、hadoop-1.2.1.tar.gz、hadoop-eclipse-plugin-1.2.1.jar 、

         Eclipse-jee-indigo-SR2-linux-gtk.tar.gz

假设:  所有软件压缩包都放在  /home/hadoop 文件夹下。

 

1、JDK安装

1.1           root用户登录,使用命令 mkdir  /usr/local/program 新建目录program,用来存放jdk,本教材采用jdk版本 jdk-6u24-linux-i586.bin。

1.2 (如事先jdk在hadoop目录下,则可以采用命令 cp /home/hadoop/ jdk-6u24-linux-i586.bin /usr/local/program/  进行复制)。

 

1.3 对jdk进行解压

进入 /usr/local/program/ 目录下,使用命令 ./jdk-6u24-linux-i586.bin进行解压。

解压成功:

会出现注册界面,可以直接跳过:

1.4 可以选择删除 jdk的bin包,命令如下:

rm  -rf jdk-6u24-linux-i586.bin.

 

1.5 配置jdk

Root 用户登录,执行命令  vim  /etc/profile    (/etc/profile这个文件很重要,后面hadoop配置也会用到)。  按键盘i键,进行插入。

在后面添加如下:

 #set javaenvironment

exportJAVA_HOME=/usr/local/program/jdk1.6.0_24

exportJRE_HOME=/usr/local/program/jdk1.6.0_24/jre

exportCLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

exportPATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

 

按 Esc+(shift+;)+wq  保存退出。

退出后输入 source  /etc/profile   是配置生效。

 

配置完成后,在命令行中输入java  -version 查看是否配置成功。

 

2、SSH无密码验证

2.1       root权限下,输入rpm –qa | grep openssh 命令看看 ssh和rsync是否安装。

2.2       生成无密码密钥对

使用ssh-kaygen –t rsa –P ‘ ‘ 命令

第一次验证不是这样,我这是第二次了,所以有overwrite,不过没关系,我只是演示一下。

2.3       把 id_rsa.pub追加到授权key里面去

命令  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

 

2.4  验证是否配置成功

   输 ssh 
localhost 命令,看是否可以无密码进行登录。

不需要输入密码,只需要输入 yes 即配置成功。

3、hadoop安装

  3.1 把hadoop拷到 opt 目录下,如果之前hadoop在hadoop目录下,执行命令进行拷贝   
cp 
/home/hadoop/hadoop-1.2.1.tar.gz  /usr/local/ 

3.2 进入 hadoop目录,对hadoop进行解压。

 cd  /usr/local/                 tar -zxvf hadoop-1.2.1.tar.gz

解压完毕:

3.3 配置环境变量

  命令  vim  /etc/profile

输入   #set hadoop

      export HADOOP_HOME=/usr/local/hadoop-1.2.1

      export PATH=$PATH:$HADOOP_HOME/bin

退出  输入 source /etc/profile 使配置文件生效。

 

 

3.4 配置hadoop 配置文件

 命令  cd /usr/local/hadoop-1.2.1/conf   进入conf目录

3.4.1 配置 hadoop-env.sh 文件

打开文件命令   vim  hadoop-env.sh

添加           #setjava environment

               export JAVA_HOME=/usr/local/program/jdk1.6.0_24

编辑后保存退出。

 

下面三个文件配置非常重要!!!

3.4.2       配置core-site.xml  文件

<?xmlversion="1.0"?>

<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>

<!--Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000/</value>注:9000后面的“/”不能少

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop-1.2.1/hadooptmp</value>

</property>

</configuration>


3.4.3       配置 hdfs-site.xml  文件

<?xmlversion="1.0"?>

<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>

<!--Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

 

3.4.4       配置 mapred-site.xml   文件

<?xmlversion="1.0"?>

<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>

<!--Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

 

配置以上三个文件一定要注意,千万不能写错了!!!

 

3.4.5 配置 masters文件和slaves文件

[root@masterconf]# vim masters

localhost

[root@masterconf]# vim slaves

localhost

注:因为在伪分布模式下,作为 master 的 namenode 与作为 slave 的 datanode 是同一台

服务器,所以配置文件中的 ip 是一样的。

 

3.4.6  主机名和IP 解析设置 (这一步非常重要)

   命令   vim  /etc/hosts

3.4.7 编辑主机名

命令  vim  /etc/hostname

      vim  /etc/sysconfig/network

 

 

 

 

 

 

 

4、启动 hadoop

 命令  cd  /usr/local/hadoop-1.2.1/bin   进入bin目录

先格式化  命令  hadoop namenode  -format

启动     命令   start-all.sh         

查看   jps

 

 

 

 

5、安装 eclipse

5.1 把eclipse 拷到opt文件夹下

  命令 cp /home/hadoop/ecipse-jee-indigo-SR2-linux-gtk.tar.gz  /opt

 

5.2 对eclipse 进行解压

 

解压成功

 

5.3  插入插件hadoop-eclipse-plugin-1.2.1.jar

命令 cp  /home/hadoop/hadoop-eclipse-plugin-1.2.1.jar  /opt/eclipse/plugins

 

 

 

5.4 启动eclipse

 

配置eclipse

 

创建 DFS Location

查看配置是否有错

 

 

创建工程

运行代码

抱歉!评论已关闭.