CentOS 6.5 配置hadoop 2.6.0伪分布式_Hadoop,ERP及大数据讨论区_Weblogic技术|Tuxedo技术|中间件技术|Oracle论坛|JAVA论坛|Linux/Unix技术|hadoop论坛_联动北方技术论坛  
网站首页 | 关于我们 | 服务中心 | 经验交流 | 公司荣誉 | 成功案例 | 合作伙伴 | 联系我们 |
联动北方-国内领先的云技术服务提供商
»  游客             当前位置:  论坛首页 »  自由讨论区 »  Hadoop,ERP及大数据讨论区 »
总帖数
1
每页帖数
101/1页1
返回列表
0
发起投票  发起投票 发新帖子
查看: 2862 | 回复: 0   主题: CentOS 6.5 配置hadoop 2.6.0伪分布式        上一篇   下一篇 
爱上面包的鱼
注册用户
等级:新兵
经验:66
发帖:1
精华:0
注册:2015-11-25
状态:离线
发送短消息息给爱上面包的鱼 加好友    发送短消息息给爱上面包的鱼 发消息
发表于: IP:您无权察看 2015-12-7 16:07:05 | [全部帖] [楼主帖] 楼主

操作系统:CentOS 6.5    32位   Java环境:jdk 1.7.0_71 

1.创建用户组和用户,使用su命令切换用户为root

groupadd hadoop   
 useradd hadoop hadoop   
 passwd  hadoop  #为用户添加密码   可以不设置密码

  
2.安装ssh

rpm -qa |grep ssh  #检查是否装了SSH包   
 yum install openssh-server  # 安装ssh   
 chkconfig --list sshd #检查SSHD是否设置为开机启动   
 chkconfig --level 2345 sshd on  #如果没设置启动就设置下.   
 service sshd restart  #重新启动

  
3.配置ssh无密码登录,切换至hadoop用户

su hadoop


生成密匙


ssh-keygen -t rsa -P ""

  
执行后会在.ssh目录下生成id_rsa和id_rsa.pub两个文件
 
进入.ssh目录,并将id_rsa.pub追加到authorized_keys文件中

cd ./.ssh   
 cat id_rsa.pub >> authorized_keys    
 chmod 600 authorized_keys # 修改用户权限

  
测试是否可以登录

ssh localhost  # 执行后会提示输入 yes or no. 输入yes后 如果提示为最后一次登录时间 则表明成功。

  
4.安装hadoop
 

将下载的hadoop解压并移动到期望的安装目录,修改其访问权限

tar -xvf hadoop-2.6.0.tar.gz   
 mv hadoop-2.6.0 /usr/opt/hadoop   
 chmod -R 775 /usr/opt/hadoop   
 chown -R hadoop:hadoop /usr/opt/hadoop

  
配置hadoop 的环境变量(所有的环境变量都是必须的)
 

su   
 vim /etc/profile   
 export HADOOP_INSTALL=/usr/opt/hadoop   
 export PATH=${HADOOP_INSTALL}/bin:${HADOOP_INSTALL}/sbin${PATH}   
 export HADOOP_MAPRED_HOME=${HADOOP_INSTALL}   
 export HADOOP_COMMON_HOME=${HADOOP_INSTALL}   
 export HADOOP_HDFS_HOME=${HADOOP_INSTALL}   
 export YARN_HOME=${HADOOP_INSTALLL}   
 export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_INSTALL}/lib/natvie     
 export HADOOP_OPTS="-Djava.library.path=${HADOOP_INSTALL}/lib:${HADOOP_INSTALL}/lib/native"

  
设置hadoop-env.sh中的java环境变量
 

cd /usr/opt/hadoop   
 vim ./etc/hadoop/hadoop-env.sh

 
5.配置伪分布式

hadoop的配置文件主要有core-site.xml  、 hdfs-site.xml 、 yarn-site.xml 三个文件。

cd /usr/opt/hadoop/etc/hadoop

 
core-site.xml 

<configuration>   
     <property>   
         <name>hadoop.tmp.dir</name>   
         <value>/usr/opt/hadoop/tmp</value>  <!--一定要配置  系统默认的缓存文件夹在每次重启后会被删除-->   
     </property>   
     <property>   
         <name>fs.defaultFS</name>   
         <value>hdfs://localhost:9000</value>   
     </property>   
 </configuration>

  
hdfs.xml
 

<configuration>     
 <property>     
         <name>dfs.replication</name>     
         <value>1</value>     
     </property>     
     <property>     
         <name>dfs.namenode.name.dir</name>     
         <value>file:/usr/opt/hadoop/dfs/name</value>     
     </property>     
     <property>     
         <name>dfs.datanode.data.dir</name>     
         <value>file:/usr/opt/hadoop/dfs/data</value>     
     </property>     
     <property>                 <!--这个属性节点是为了防止后面eclipse存在拒绝读写设置的 -->    
             <name>dfs.permissions</name>     
             <value>false</value>     
      </property>     
  </configuration>

     

yarn-site.xml
 

<configuration>   
 <property>   
 <name>mapreduce.framework.name</name>   
 <value>yarn</value>   
 </property>   
    
 <property>   
 <name>yarn.nodemanager.aux-services</name>   
 <value>mapreduce_shuffle</value>   
 </property>   
 </configuration>

  
接下来创建需要的文件夹
 

cd /usr/local/hadoop   
 mkdir tmp dfs dfs/name dfs/data

  
到目前为止所有的配置都已经完成。

6.运行:首先格式化文件系统

Starting namenodes on [localhost]   
 localhost: starting namenode, logging to /usr/opt/hadoop-2.6.0/logs/hadoop-hadoop-namenode-.out   
 localhost: starting datanode, logging to /usr/opt/hadoop-2.6.0/logs/hadoop-hadoop-datanode-.out   
 Starting secondary namenodes [0.0.0.0]   
 0.0.0.0: starting secondarynamenode, logging to /usr/opt/hadoop-2.6.0/logs/hadoop-hadoop-secondarynamenode-.out

  
输入网址127.0.0.1:50070就可以看见hadoop的网页了。
 
PS :如果出现警告提示:

Unable to load native-hadoop library for your platform

   

也可以看到那个网页,但hadoop并没有完全装好。 出现这个问题有两种情况:

一、没有设置HADOOP_OPTS这个环境变量

二、是操作系统与hadoop.so文件不兼容导致的。

hadoop 2.5以后的release版本都是64位编译的,如果自己的电脑是32位的就出现不兼容的情况。

这时需要重新编译hadoop源码(编译hadoop源码时,不要使用jdk1.8.0,使用1.6和1.7就可以了,不然会报这个错误[ERROR] Failed to execute goal org.apache.maven.plugins:maven-javadoc-plugin:2.8.1:jar (module-javadocs) on project hadoop-annotations: MavenReportException: Error while creating archive ):







                                                                                                                 --转自



赞(0)    操作        顶端 
总帖数
1
每页帖数
101/1页1
返回列表
发新帖子
请输入验证码: 点击刷新验证码
您需要登录后才可以回帖 登录 | 注册
技术讨论