现在的位置: 首页 > 综合 > 正文

把玩云计算工具系列之hadoop与hive的单机配置

2012年08月11日 ⁄ 综合 ⁄ 共 2313字 ⁄ 字号 评论关闭

玩过了云应用,再来玩玩粉火的hadoop~~~这篇主要写的是hadoop与hive组件在单机上的配置,废话不多讲,开始~~~


一、系统运行环境

     操作系统环境:Linux版本  CentOS 6.0 Desktop

     Hadoop版本: Hadoop 0.20.2  下载地址:http://www.apache.org/dyn/closer.cgi/hadoop/core/

     Hive 版本: Hive-0.8.0-bin  下载地址:http://www.apache.org/dyn/closer.cgi/hive/

二、配置步骤

通用环境配置

     默认最小化安装,所以系统里面没有包含JAVA,由于Hadoop 0.20.2的JDK版本只需要1.6的,所以在我这个情况下是不需要到sun网站去手动下载jdk了,只需要在Termial中输入: yum install java java-1.6.0-openjdk-devel

        安装完Java之后用命令: java -version 验证java是否正确安装,如下图所示,OK。

    


       装完Java之后我们还要确认有没有安装sshd服务和ssh客户端工具,默认ssh已经安装,因此我们只要再安装一下rsync。

      输入命令: yum install rsync

      再确认可以用ssh免密码登录localhost

      输入ssh localhost命令: ssh localhost

                                              ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa

                                              cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

注意:-P 后面为两个“ ‘ ”号,代表密码设为空

上述配置完成后进入解压,配置Hadoop阶段

  1.解压hadoop包

   输入命令 :tar zxf hadoop-0.20.2.tar.gz

   进入解压后的hadoop目录

                      cd hadoop-0.20.2

 
2.修改hadoop的配置文件

    
a.设置JAVA_HOME

     编辑conf/hadoop-env.sh文件,找到:# export JAVA_HOME=/usr/lib/j2sdk1.5-sun
把前面的注释符号#去掉,等号后面的路径改为你的JDK所在的目录,如你的java可执行文件在/usr/bin/java,则写成(不要包含bin):

      export JAVA_HOME=/usr


注意:如果不知道java在什么地方请用whereis java查询

  

    b.配置hadoop的单机集群模式(伪集群模式)

      修改conf/core-site.xml,内容改为:

      <configuration>

      <property>

      <name>fs.default.name</name>

      <value>hdfs://localhost:9000</value>

      </property>

      </configuration>

    修改conf/hdfs-site.xml,内容改为:

    <configuration>

    <property>

    <name>dfs.replication</name>

    <value>1</value>

    </property>

    </configuration>

   修改conf/mapred-site.xml,内容改为:

   <configuration>

   <property>

   <name>mapred.job.tracker</name>

   <value>localhost:9001</value>

   </property>

   </configuration>

  c.初始化hadoop Namenode

   执行:bin/hadoop namenode –format

              bin/hadoop namenode -format

 
d.启动运行hadoop

   执行:bin/start-all.sh

   等到所有进程都执行后继续

注意:可以用jps命令看一下启动了哪些java进程:一般有以下几个进程TaskTracker,SecondaryNameNode,JobTracker,Jps,NameNode,DataNode

Hadoop安装成功

Hadoop配置完成后开始配置HIVE

一、在HDFS中建立hive要用的目录

输入命令:

bin/hadoop fs -mkdir /tmp

bin/hadoop fs -mkdir /user/hive/warehouse

bin/hadoop fs -chmod g+w /tmp

bin/hadoop fs -chmod g+w /user/hive/warehouse

二、解压Hive

tar zxf hive-0.8.0-bin.tar.gz

cd hive-0.8.0-bin

三、设置HADOOP_HOME

export HADOOP_HOME=/home/chin/hadoop-0.20.2

四、运行Hive

bin/hive

hive >

Hive运行成功,配置轻松惬意啊,用的时间还没写博的时间多,不过这个配置过程只针对hadoop0.20.2,最新的hadoop0.23conf结构已经发生了改变,不过没啥关系,配置的时候对照相应官方参考手册就行了~

    

抱歉!评论已关闭.