paulwong

          Hadoop集群配置

          step1:安裝JDK
                1.1 sudo sh jdk-6u10-linux-i586.bin
                1.2 sudo gedit /etc/environment
                    export JAVA_HOME=/home/linkin/Java/jdk1.6.0_23
                    export JRE_Home=/home/linkin/Java/jdk1.6.0_23/jre
                    export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
                1.3 sudo gedit /etc/profile
                    在umask 022之前添加以下語(yǔ)句:
                    export JAVA_HOME=/home/linkin/Java/jdk1.6.0_23
                    export JRE_HOME=/home/linkin/Java/jdk1.6.0_23/jre
                    export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
                    export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin

          更改時(shí)區(qū):
          cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
          安裝NTP:
                  yum install ntp
                  安裝后執(zhí)行
                  ntpdate cn.pool.ntp.org
                  即可同步國(guó)際時(shí)間..
                  開機(jī)后自動(dòng)同步時(shí)間:
                  vi /etc/rc.d/rc.local中,最下面添加
                  ntpdate cn.pool.ntp.org

          關(guān)閉IPV6
          在/etc/sysctl.conf結(jié)尾添加
          net.ipv6.conf.all.disable_ipv6 = 1
          net.ipv6.conf.default.disable_ipv6 = 1
          重啟服務(wù)器

          刪除IPV6的DNS服務(wù)器

          step2:SSH免密碼登陸
                2.1 首先在master主機(jī)上,linkin@master :~$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
                2.2 linkin@master :~$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 將id_dsa.pub寫入authorized_keys
                2.3 linkin@master :~/.ssh$ scp id_dsa.pub linkin@192.168.149.2:/home/linkin
                2.4 登陸到linkin主機(jī) $cat id_dsa.pub >> .ssh/authorized_keys
                      authorized_keys的權(quán)限要是600chmod 600 .ssh/authorized_keys
                2.5 在Datenode上執(zhí)行同樣的操作就能實(shí)現(xiàn)彼此無密碼登陸

          step3:安裝hadoop
                3.1 設(shè)置hadoop-env.sh
                    export JAVA_HOME=/home/linkin/jdk1.6.0_10
                3.2 配置core-site.xml
             
          <property>
                
          <name>hadoop.tmp.dir</name>
                
          <value>/home/linkin/hadoop-0.20.2/tmp</value>
                
          <description>A base for other temporary directories.</description>
          </property>

           
          <property>
              
          <name>fs.default.name</name>
              
          <value>hdfs://master:9000</value>//要寫主機(jī)名
           
          </property>
             
           
              
                3.3 配置hdfs-site.xml
          <property>
            
          <name>dfs.replication</name>
            
          <value>1</value>
          </property>
               

                3.4 配置mapred-site.xml
               
          <property>
            
          <name>mapred.job.tracker</name>
            
          <value>master:9001</value>//要寫主機(jī)名
          </property>
               
                3.5 配置master和slaves
                    master:master(主機(jī)名)slaves:linkin(主機(jī)名)這2個(gè)配置文件可以不拷貝到其它機(jī)器上,只在master上保存即可。
                3.6 配置hosts文件
               127.0.0.1 localhost (注意這里不能放其他的如機(jī)器名,否則會(huì)使hbase的master名稱變成localhost)
               192.168.149.7 master
               192.168.149.2 linkin
                3.7 配置profile,在末尾追加以下內(nèi)容,并輸入source/etc/profile使之生效
              export JAVA_HOME=/home/linkin/jdk1.6.0_10
              export JRE_HOME=/home/linkin/jdk1.6.0_10/jre
              export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
              export PATH=$JAVA_HOME/bin:$PATH
              HADOOP設(shè)置
              export HADOOP_HOME=/home/linkin/hadoop-0.20.2
              export PATH=$HADOOP_HOME/bin:$PATH
              //export PATH=$PATH:$HIVE_HOME/bin
               3.8 將hadoop-0.20.2拷貝到其它主機(jī)對(duì)應(yīng)的目錄下。將/ect/profile和/etc/hosts也拷貝到其它機(jī)器上。profile需要做生效操作。
          step4 格式化HDFS
                bin/hadoop namenode -format
                bin/hadoop dfs -ls
          step5 啟動(dòng)hadoop
                bin/start-all.sh
                查看HDFS http://192.168.149.7:50070
                查看JOB狀態(tài) http://192.168.149.7:50030/jobtracker.jsp

          參考資源:
          http://wiki.ubuntu.org.cn/%E5%88%A9%E7%94%A8Cloudera%E5%AE%9E%E7%8E%B0Hadoop

          posted on 2012-09-21 22:45 paulwong 閱讀(413) 評(píng)論(0)  編輯  收藏 所屬分類: HADOOPHBASE

          主站蜘蛛池模板: 宁强县| 梅河口市| 阿图什市| 金湖县| 凤阳县| 滦平县| 兴文县| 永修县| 康乐县| 台南县| 汉沽区| 榆社县| 河曲县| 东港市| 邯郸市| 无极县| 泊头市| 蒲城县| 陆良县| 汝州市| 东山县| 泾川县| 雷州市| 密云县| 江津市| 高碑店市| 维西| 惠安县| 商洛市| 怀来县| 衡东县| 台江县| 嘉定区| 将乐县| 扶绥县| 凭祥市| 长垣县| 资兴市| 孝感市| 南充市| 澄迈县|