[转帖] 把玩云计算工具系列之hadoop与hive的单机配置_Hadoop,ERP及大数据讨论区_Weblogic技术|Tuxedo技术|中间件技术|Oracle论坛|JAVA论坛|Linux/Unix技术|hadoop论坛_联动北方技术论坛  
网站首页 | 关于我们 | 服务中心 | 经验交流 | 公司荣誉 | 成功案例 | 合作伙伴 | 联系我们 |
联动北方-国内领先的云技术服务提供商
»  游客             当前位置:  论坛首页 »  自由讨论区 »  Hadoop,ERP及大数据讨论区 »
总帖数
1
每页帖数
101/1页1
返回列表
0
发起投票  发起投票 发新帖子
查看: 3137 | 回复: 0   主题: [转帖] 把玩云计算工具系列之hadoop与hive的单机配置        下一篇 
huizai
注册用户
等级:少校
经验:933
发帖:83
精华:0
注册:2013-6-18
状态:离线
发送短消息息给huizai 加好友    发送短消息息给huizai 发消息
发表于: IP:您无权察看 2013-6-25 15:39:53 | [全部帖] [楼主帖] 楼主

玩过了云应用,再来玩玩粉火的hadoop~~~这篇主要写的是hadoop与hive组件在单机上的配置,废话不多讲,开始~~~

一、系统运行环境

     操作系统环境:Linux版本  CentOS 6.0 Desktop

     Hadoop版本: Hadoop 0.20.2  下载地址:http://www.apache.org/dyn/closer.cgi/hadoop/core/

     Hive 版本: Hive-0.8.0-bin  下载地址:http://www.apache.org/dyn/closer.cgi/hive/

二、配置步骤

通用环境配置

     默认最小化安装,所以系统里面没有包含JAVA,由于Hadoop 0.20.2的JDK版本只需要1.6的,所以在我这个情况下是不需要到sun网站去手动下载jdk了,只需要在Termial中输入: yum install java java-1.6.0-openjdk-devel 

    安装完Java之后用命令: java -version 验证java是否正确安装,如下图所示,OK。

北京联动北方科技有限公司



     装完Java之后我们还要确认有没有安装sshd服务和ssh客户端工具,默认ssh已经安装,因此我们只要再安装一下rsync。

     输入命令: yum install rsync

     再确认可以用ssh免密码登录localhost 

     输入ssh localhost命令: ssh localhost

ssh-keygen -t dsa -P ” -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys


注意:-P 后面为两个“ ‘ ”号,代表密码设为空

北京联动北方科技有限公司

上述配置完成后进入解压,配置Hadoop阶段



    1.解压hadoop包

     输入命令 :tar zxf hadoop-0.20.2.tar.gz

     进入解压后的hadoop目录

cd hadoop-0.20.2


2.修改hadoop的配置文件

a.设置JAVA_HOME 

     编辑conf/hadoop-env.sh文件,找到:# export JAVA_HOME=/usr/lib/j2sdk1.5-sun 把前面的注释符号#去掉,等号后面的路径改为你���JDK所在的目录,如你的java可执行文件在/usr/bin/java,则写成(不要包含bin):

export JAVA_HOME=/usr


注意:如果不知道java在什么地方请用whereis java查询

b.配置hadoop的单机集群模式(伪集群模式)

     修改conf/core-site.xml,内容改为:

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>


    修改conf/hdfs-site.xml,内容改为:

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>


   修改conf/mapred-site.xml,内容改为:

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>


  c.初始化hadoop Namenode

     执行:bin/hadoop namenode –format

bin/hadoop namenode -format


  d.启动运行hadoop

     执行:bin/start-all.sh

    等到所有进程都执行后继续

注意:可以用jps命令看一下启动了哪些java进程:一般有以下几个进程TaskTracker,SecondaryNameNode,JobTracker,Jps,NameNode,DataNode


Hadoop安装成功

Hadoop配置完成后开始配置HIVE

一、在HDFS中建立hive要用的目录

输入命令:

bin/hadoop fs -mkdir /tmp
bin/hadoop fs -mkdir /user/hive/warehouse
bin/hadoop fs -chmod g+w /tmp
bin/hadoop fs -chmod g+w /user/hive/warehouse


二、解压Hive

tar zxf hive-0.8.0-bin.tar.gz

cd hive-0.8.0-bin


三、设置HADOOP_HOME

export HADOOP_HOME=/home/chin/hadoop-0.20.2


四、运行Hive

bin/hive
hive >


Hive运行成功,配置轻松惬意啊,用的时间还没写博的时间多,不过这个配置过程只针对hadoop0.20.2,最新的hadoop0.23conf结构已经发生了���变,不过没啥关系,配置的时候对照相应官方参考手册就行了~




赞(0)    操作        顶端 
总帖数
1
每页帖数
101/1页1
返回列表
发新帖子
请输入验证码: 点击刷新验证码
您需要登录后才可以回帖 登录 | 注册
技术讨论