ivaneeo's blog

          自由的力量,自由的生活。

            BlogJava :: 首頁 :: 聯(lián)系 :: 聚合  :: 管理
            669 Posts :: 0 Stories :: 64 Comments :: 0 Trackbacks

          常用鏈接

          留言簿(34)

          我參與的團(tuán)隊(duì)

          搜索

          •  

          最新評(píng)論

          閱讀排行榜

          評(píng)論排行榜

          #

          在debian6中,加入開機(jī)啟動(dòng)腳本的方法與debian5不同了,直接做符號(hào)鏈接到runlevel已經(jīng)不起作用了,提示缺少LSB信息,并且用insserv來替代update-rc.d:

          root@14:/etc/rc2.d# update-rc.d -n  php_fastcgi.sh  defaults           
          update-rc.d: using dependency based boot sequencing
          insserv: warning: script 'K02php_fastcgi' missing LSB tags and overrides
          insserv: warning: script 'K01php_fastcgi.sh' missing LSB tags and overrides
          insserv: warning: script 'php_fastcgi.sh' missing LSB tags and overrides
          insserv: warning: current start runlevel(s) (empty) of script `php_fastcgi.sh' overwrites defaults (2 3 4 5).
          insserv: warning: current stop runlevel(s) (0) of script `php_fastcgi.sh' overwrites defaults (0 1 6).
          insserv: dryrun, not creating .depend.boot, .depend.start, and .depend.stop

          # insserv /etc/init.d/php_fastcgi.sh
          insserv: warning: script 'K02php_fastcgi' missing LSB tags and overrides
          insserv: warning: script 'php_fastcgi.sh' missing LSB tags and overrides

           

          debian6中將腳本加入到開機(jī)啟動(dòng)的方法:

          在腳本中加入LSB描述信息。
          root@14:~# more  /etc/init.d/php_fastcgi.sh   
          #!/bin/sh
          ### BEGIN INIT INFO
          # Provides:          php_fastcgi.sh
          # Required-Start:    $local_fs $remote_fs $network $syslog
          # Required-Stop:     $local_fs $remote_fs $network $syslog
          # Default-Start:     2 3 4 5
          # Default-Stop:      0 1 6
          # Short-Description: starts the php_fastcgi daemon
          # Description:       starts php_fastcgi using start-stop-daemon
          ### END INIT INFO

          安裝啟動(dòng)腳本到system init script。
          root@14:~# insserv -v -d /etc/init.d/php_fastcgi.sh

          重啟機(jī)器試試吧。

          posted @ 2013-09-29 14:45 ivaneeo 閱讀(4823) | 評(píng)論 (0)編輯 收藏

          linux 廣播 255.255.255.255

                         sendto error: Network is unreachable

                        全網(wǎng)廣播


          場景:

              今天調(diào)試linux 網(wǎng)絡(luò)編程的廣播,當(dāng)向255.255.255.255 的某個(gè)端口發(fā)送廣播包的時(shí)候,sendto 返回 -1,錯(cuò)誤原因是:

          sendto error: Network is unreachable。


          2. 指令的解決方法:

          oute add -net 255.255.255.255 netmask 255.255.255.255 dev eth0 metric 1

          或者

          route add -host 255.255.255.255 dev eth0



          http://blog.csdn.net/qiaoliang328/article/details/8881474
          posted @ 2013-09-10 19:40 ivaneeo 閱讀(629) | 評(píng)論 (0)編輯 收藏

          devcon install c:\windows\inf\netloop.inf *MSLOOP
          posted @ 2013-08-17 11:20 ivaneeo 閱讀(524) | 評(píng)論 (0)編輯 收藏

          reg add "HKEY_CURRENT_USER\Software\Microsoft\Windows\ShellNoRoam" /v @ /t REG_SZ /d "%Name%" /f
          reg add "HKLM\SYSTEM\CurrentControlSet\Control\ComputerName\ComputerName" /v "ComputerName" /t REG_SZ /d "%Name%" /f
          reg add "HKLM\SYSTEM\CurrentControlSet\Control\ComputerName\ActiveComputerName" /v "ComputerName" /t REG_SZ /d "%Name%" /f
          reg add "HKLM\SYSTEM\CurrentControlSet\Services\Eventlog" /v "ComputerName" /t REG_SZ /d "%Name%" /f
          reg add "HKLM\SYSTEM\CurrentControlSet\Control\ComputerName\ComputerName" /v "ComputerName" /t REG_SZ /d "%Name%" /f
          reg add "HKLM\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters" /v "NV Hostname" /t REG_SZ /d "%Name%" /f
          reg add "HKLM\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters" /v "Hostname" /t REG_SZ /d "%Name%" /f
          posted @ 2013-08-14 22:38 ivaneeo 閱讀(311) | 評(píng)論 (0)編輯 收藏

          Impala是由Cloudera開發(fā)的高性能實(shí)時(shí)計(jì)算工具,相比Hive性能提升了幾十、甚至近百倍,基本思想是將計(jì)算分發(fā)到每個(gè) Datanode所在的節(jié)點(diǎn),依靠內(nèi)存實(shí)現(xiàn)數(shù)據(jù)的緩存進(jìn)行快速計(jì)算,類似的系統(tǒng)還有Berkeley的Shark。從實(shí)際測試來看,Impala效率確實(shí) 不錯(cuò),由于Impala大量使用C++實(shí)現(xiàn),不使用CDH的Image而自己編譯安裝要費(fèi)不少功夫,這里記錄一下安裝配置過程和碰到的一些問題。我在測試 時(shí)候使用的是CentOS6.2。
          一些基本的安裝步驟在這里,但我在安裝的時(shí)候碰到一些問題,這里再詳細(xì)說明一下過程。

          1.安裝所需的依賴lib,這一步?jīng)]有什么不同

          sudo yum install boost-test boost-program-options libevent-devel automake libtool flex bison gcc-c++ openssl-devel make cmake doxygen.x86_64 glib-devel boost-devel python-devel bzip2-devel svn libevent-devel cyrus-sasl-devel wget git unzip

          2.安裝LLVM,按照流程做即可,注意要在多臺(tái)機(jī)器上編譯安裝Impala的話,只用在一臺(tái)機(jī)器上執(zhí)行下面藍(lán)色的部分,再把llvm分發(fā)到多臺(tái)機(jī)器上執(zhí)行后面紅色部分的指令就可以了,沒必要每個(gè)機(jī)器都通過svn下載一遍源代碼,很費(fèi)時(shí)。

          wget http://llvm.org/releases/3.2/llvm-3.2.src.tar.gz
          tar xvzf llvm-3.2.src.tar.gz
          cd llvm-3.2.src/tools
          svn co http://llvm.org/svn/llvm-project/cfe/tags/RELEASE_32/final/ clang
          cd ../projects
          svn co http://llvm.org/svn/llvm-project/compiler-rt/tags/RELEASE_32/final/ compiler-rt
          cd ..
          ./configure –with-pic
          make -j4 REQUIRES_RTTI=1
          sudo make install

          3.安裝Maven,這個(gè)沒什么好說的,按照步驟,設(shè)置一下環(huán)境變量即可,Maven是為了后面build impala源代碼用的。

          wget http://www.fightrice.com/mirrors/apache/maven/maven-3/3.0.4/binaries/apache-maven-3.0.4-bin.tar.gz
          tar xvf apache-maven-3.0.4.tar.gz && sudo mv apache-maven-3.0.4 /usr/local

          修改~/.bashrc,增加maven環(huán)境變量

          export M2_HOME=/usr/local/apache-maven-3.0.4
          export M2=$M2_HOME/bin
          export PATH=$M2:$PATH

          更新環(huán)境變量,查看mvn版本是否正確

          source ~/.bashrc
          mvn -version

          4.下載Impala源代碼

          git clone https://github.com/cloudera/impala.git

          5.設(shè)置Impala環(huán)境變量,編譯時(shí)需要

          cd impala
          ./bin/impala-config.sh

          6.下載impala依賴的第三方package

          cd thirdparty
          ./download_thirdparty.sh

          注意這里其中一個(gè)包c(diǎn)yrus-sasl-2.1.23可能下載失敗,可以自行搜索(CSDN里面就有)下載下來然后解壓縮到thirdparty 文件夾,最好是在執(zhí)行完download_thirdparty.sh之后做這一步,因?yàn)閐ownload_thirdparty.sh會(huì)把所有目錄下下 載下來的tar.gz給刪除掉。

          7.理論上現(xiàn)在可以開始build impala了,但是實(shí)際build過程中可能會(huì)出現(xiàn)問題,我碰到的問題和 Boost相關(guān)的(具體錯(cuò)誤不記得了),最后發(fā)現(xiàn)是由于boost版本太低導(dǎo)致的,CentOS 6.2系統(tǒng)默認(rèn)yum源中的boost和boost-devel版本是1.41,但是impala編譯需要1.44以上的版本,因此需要做的是自己重新編 譯boost,我用的是boost 1.46版本。

          #刪除已安裝的boost和boost-devel
          yum remove boost
          yum remove boost-devel
          #下載boost
          #可以去(http://www.boost.org/users/history/)下載boost
          #下載后解壓縮
          tar xvzf boost_1_46_0.tar.gz
          mv boost_1_46_0 /usr/local/
          cd /usr/include
          ./bootstrap.sh
          ./bjam
          #執(zhí)行后若打印以下內(nèi)容,則表示安裝成功
          # The Boost C++ Libraries were successfully built!
          # The following directory should be added to compiler include paths:
          # /usr/local/boost_1_46_0
          # The following directory should be added to linker library paths:
          # /usr/local/boost_1_46_0/stage/lib
          #現(xiàn)在還需要設(shè)置Boost環(huán)境變量和Impala環(huán)境變量

          export BOOST_ROOT=’/usr/local/boost_1_46_0′
          export IMPALA_HOME=’/home/extend/impala’

          #注意一下,這里雖然安裝了boost,但是我在實(shí)際使用的時(shí)候,編譯還是會(huì)報(bào)錯(cuò)的,報(bào)的錯(cuò)誤是找不到這個(gè)包:#libboost_filesystem-mt.so,這個(gè)包是由boost-devel提供的,所以我的做法是把boost-devel給重新裝上
          #我沒有試過如果之前不刪除boost-devel會(huì)不會(huì)有問題,能確定的是按這里寫的流程做是沒問題的

          yum install boost-devel

          8.現(xiàn)在終于可以編譯impala了

          cd $IMPALA_HOME
          ./build_public.sh -build_thirdparty
          #編譯首先會(huì)編譯C++部分,然后再用mvn編譯java部分,整個(gè)過程比較慢,我在虛擬機(jī)上大概需要1-2個(gè)小時(shí)。
          #Impala編譯完后的東西在be/build/debug里面

          9.啟動(dòng)impala_shell需要用到的python包

          #第一次執(zhí)行impalad_shell可能會(huì)報(bào)錯(cuò),這里需要安裝python的兩個(gè)包:thrift和prettytable,使用easy_install即可
          easy_install prettytable
          easy_install thrift

          10.如果你以為到這里就萬事大吉就太天真了,在配置、啟動(dòng)、使用Impala的時(shí)候還會(huì)有很多奇葩的問題;

          問題1:Hive和Hadoop使用的版本
          CDH對版本的依賴要求比較高,為了保證Impala正常運(yùn)行,強(qiáng)烈建議使用Impala里面thirdparty目錄中自帶的Hadoop(native lib已經(jīng)編譯好的)和Hive版本。
          Hadoop的配置文件在$HADOOP_HOME/etc/hadoop中,要注意的是需要啟用native lib

          #修改hadoop的core-site.xml,除了這個(gè)選項(xiàng)之外,其他配置和問題2中的core-site.xml一致
          <property>
            <name>hadoop.native.lib</name>
            <value>true</value>
            <description>Should native hadoop libraries, if present, be used.</description>
          </property>

          問題2:Impala的配置文件位置
          Impala默認(rèn)使用的配置文件路徑是在bin/set-classpath.sh中配置的,建議把CLASSPATH部分改成

          CLASSPATH=\
          $IMPALA_HOME/conf:\
          $IMPALA_HOME/fe/target/classes:\
          $IMPALA_HOME/fe/target/dependency:\
          $IMPALA_HOME/fe/target/test-classes:\
          ${HIVE_HOME}/lib/datanucleus-core-2.0.3.jar:\
          ${HIVE_HOME}/lib/datanucleus-enhancer-2.0.3.jar:\
          ${HIVE_HOME}/lib/datanucleus-rdbms-2.0.3.jar:\
          ${HIVE_HOME}/lib/datanucleus-connectionpool-2.0.3.jar:

          即要求Impala使用其目錄下的Conf文件夾作為配置文件,然后創(chuàng)建一下Conf目錄,把3樣?xùn)|西拷貝進(jìn)來:core-site.xml、hdfs-site.xml、hive-site.xml。
          core-site.xml的配置,下面幾個(gè)選項(xiàng)是必須要配置的,

          <?xml version="1.0"?>
          <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
          <configuration>
          <property>
          <name>fs.defaultFS</name>
          <value>hdfs://10.200.4.11:9000</value>
          </property>
          <property>
          <name>dfs.client.read.shortcircuit</name>
          <value>true</value>
          </property>
          <property>
          <name>dfs.client.use.legacy.blockreader.local</name>
          <value>false</value>
          </property>
          <property>
          <name>dfs.client.read.shortcircuit.skip.checksum</name>
          <value>false</value>
          </property>
          </configuration>

          hdfs-site.xml的配置

          <?xml version="1.0" encoding="UTF-8"?>
          <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
          <configuration>
          <property>
          <name>dfs.block.local-path-access.user</name>
          <value>${your user}</value>
          </property>
          <property>
          <name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
          <value>true</value>
          </property>
          <property>
          <name>dfs.datanode.data.dir</name>
          <value>${yourdatadir}</value>
          </property>
          <property>
             <name>dfs.client.use.legacy.blockreader.local</name>
             <value>false</value>
          </property>
          <property>
             <name>dfs.datanode.data.dir.perm</name>
             <value>750</value>
          </property>
          <property>
              <name>dfs.client.file-block-storage-locations.timeout</name>
              <value>5000</value>
          </property>
          <property>
              <name>dfs.domain.socket.path</name>
              <value>/home/extend/cdhhadoop/dn.8075</value>
          </property>
          </configuration>

          最后是hive-site.xml,這個(gè)比較簡單,指定使用DBMS為元數(shù)據(jù)存儲(chǔ)即可(impala必須和hive共享元數(shù)據(jù),因?yàn)閕mpala無 法create table);Hive-site.xml使用mysql作為metastore的說明在很多地方都可以查到,配置如下:

          <?xml version="1.0"?>
          <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
          <configuration>
          <property>
            <name>javax.jdo.option.ConnectionURL</name>
            <value>jdbc:mysql://10.28.0.190:3306/impala?createDatabaseIfNotExist=true</value>
            <description>JDBC connect string for a JDBC metastore</description>
          </property>
          <property>
            <name>javax.jdo.option.ConnectionDriverName</name>
            <value>com.mysql.jdbc.Driver</value>
            <description>Driver class name for a JDBC metastore</description>
          </property>

          <property>
            <name>javax.jdo.option.ConnectionUserName</name>
            <value>root</value>
            <description>username to use against metastore database</description>
          </property>
          <property>
            <name>javax.jdo.option.ConnectionPassword</name>
            <value>root</value>
            <description>password to use against metastore database</description>
          </property>
          </configuration>

          記得把mysql-connector的jar包給拷貝到hive的lib里面去,同樣也要拷貝給impala ( 拷貝至$IMPALA_HOME/fe/target/dependency)

          11.啟動(dòng)Impala。到此,Impala是可以正常啟動(dòng)的。這里說明一下,官方文檔沒有說很清楚Impala的Service之間是如何互相協(xié)調(diào)的,按照官方的步驟,最后通過如下方法來在一臺(tái)機(jī)器上啟動(dòng)Impala Service:

          #啟動(dòng)單機(jī)impala service
          ${IMPALA_HOME}/bin/start-impalad.sh -use_statestore=false
          #啟動(dòng)impala shell
          ${IMPALA_HOME}/bin/impala-shell.sh

          然后impala-shell就可以連接到localhost進(jìn)行查詢了;注意,這里只是單機(jī)查詢,可以用來驗(yàn)證你的Impala是否正常work 了;如何啟動(dòng)一個(gè)Impala集群,跳到第12步。這里繼續(xù)說一下可能遇到的問題,我遇到的一個(gè)比較奇葩的問題是show tables和count(1)沒有問題,但是select * from table的時(shí)候impala在讀取數(shù)據(jù)的時(shí)候就崩潰了(有時(shí)報(bào)錯(cuò)could not find method close from class org/apache/hadoop/fs/FSDataInputStream with signature ()V ),這里修改了兩個(gè)地方解決這個(gè)問題:

          a.修改impala的set-classpath.sh并移除$IMPALA_HOME/fe/target/dependency目錄中除了hadoop-auth-2.0.0-*.jar之外所有hadoop-*開頭的jar包。

          #把impala dependency中和hadoop相關(guān)的包給弄出來,只保留auth
          mv $IMPALA_HOME/fe/target/dependency/hadoo* $IMPALA_HOME
          mv $IMPALA_HOME/hadoop-auth*.jar mv $IMPALA_HOME/fe/target/dependency
          #修改bin/set-classpath.sh,將$HADOOP_HOME中的lib給加入,在set-classpath.sh最后一行export CLASSPATH之前#添加
          for jar in `ls $HADOOP_HOME/share/hadoop/common/*.jar`; do
          CLASSPATH=${CLASSPATH}:$jar
          done
          for jar in `ls $HADOOP_HOME/share/hadoop/yarn/*.jar`; do
          CLASSPATH=${CLASSPATH}:$jar
          done
          for jar in `ls $HADOOP_HOME/share/hadoop/hdfs/*.jar`; do
          CLASSPATH=${CLASSPATH}:$jar
          done
          for jar in `ls $HADOOP_HOME/share/hadoop/mapreduce/*.jar`; do
          CLASSPATH=${CLASSPATH}:$jar
          done
          for jar in `ls $HADOOP_HOME/share/hadoop/tools/lib/*.jar`; do
          CLASSPATH=${CLASSPATH}:$jar
          done

          b.注意到Impala對待table的時(shí)候只能夠使用hive的默認(rèn)列分隔符,如果在hive里面create table的時(shí)候使用了自定義的分隔符,Impala servive就會(huì)在讀數(shù)據(jù)的時(shí)候莫名其妙的崩潰。

          12.啟動(dòng)Impala 集群
          Impala實(shí)際上由兩部分組成,一個(gè)是StateStore,用來協(xié)調(diào)各個(gè)機(jī)器計(jì)算,相當(dāng)于Master,然后就是Impalad,相當(dāng)于Slave,啟動(dòng)方法如下:

          #啟動(dòng)statestore
          #方法1,直接利用impala/bin下面的這個(gè)python腳本
          #這個(gè)腳本會(huì)啟動(dòng)一個(gè)StateStore,同時(shí)啟動(dòng)-s個(gè)數(shù)量的Impala Service在本機(jī)
          $IMPALA_HOME/bin/start-impala-cluster.py -s 1 –log_dir /home/extend/impala/impalaLogs
          #方法2,手動(dòng)啟動(dòng)StateStore
          $IMPALA_HOME/be/build/debug/statestore/statestored -state_store_port=24000

          #啟動(dòng)impala service
          #在每個(gè)編譯安裝了impala的節(jié)點(diǎn)上執(zhí)行命令
          #參數(shù)-state_store_host指定啟動(dòng)了stateStore的機(jī)器名
          #-nn即namenode,指定hadoop的namenode
          #-nn_port是namenode的HDFS入口端口號(hào)
          $IMPALA_HOME/bin/start-impalad.sh -state_store_host=m11 -nn=m11 -nn_port=9000

          正常啟動(dòng)之后,訪問http://${stateStore_Server}:25010/ 可以看到StateStore的狀態(tài),其中的subscribers頁面可以看到已經(jīng)連接上的impala service node;

          13.使用Impala客戶端
          這一步最簡單,隨便找一個(gè)機(jī)器啟動(dòng)

          $IMPALA_HOME/bin/impala-shell.sh
          #啟動(dòng)之后可以隨便連接一個(gè)impala service
          connect m12
          #連接上之后就可以執(zhí)行show tables之類的操作了
          #需要注意的是,如果hive創(chuàng)建表或更新了表結(jié)構(gòu),impala的節(jié)點(diǎn)是不知道的
          #必須通過客戶端連接各個(gè)impala service并執(zhí)行refresh來刷新metadata
          #或者重啟所有impala service
          posted @ 2013-06-29 17:12 ivaneeo 閱讀(1757) | 評(píng)論 (1)編輯 收藏

          nohup ./bin/startServer.sh -r hotrod -l 172.20.21.1 -c ./etc/config-samples/distributed-udp.xml -p 11222 &
          posted @ 2013-06-07 19:32 ivaneeo 閱讀(283) | 評(píng)論 (0)編輯 收藏

          http://www.ibm.com/developerworks/cn/aix/library/au-kerbauthent/
          posted @ 2013-05-20 12:15 ivaneeo 閱讀(277) | 評(píng)論 (0)編輯 收藏

          Kerberos Server Configuration

          These notes are for MIT Kerberos 1.3 or higher.

          • /etc/krb5.conf
          • The /etc/krb5.conf configuration file should include rc4-hmac support under the [libdefaults] section. Windows XP uses rc4-hmac. However, do not include rc4-hmac in the default* encryption types, as older Unix clients may not support rc4-hmac.

            [libdefaults]
            default_realm = EXAMPLE.ORG
            default_etypes = des3-hmac-sha1 des-cbc-crc
            default_tkt_enctypes = des3-hmac-sha1 des-cbc-crc
            default_tgs_enctypes = des3-hmac-sha1 des-cbc-crc
            permitted_enctypes = des3-hmac-sha1 des-cbc-crc rc4-hmac
            dns_lookup_realm = false
            dns_lookup_kdc = true

          • kdc.conf
          • The kdc.conf configuration file on the Kerberos servers must support rc4-hmac as an encryption type.

            [realms]
            EXAMPLE.ORG = {
            database_name = /var/kerberos/krb5kdc/principal
            key_stash_file = /var/kerberos/krb5kdc/.k5.EXAMPLE.ORG
            supported_enctypes = des3-hmac-sha1:normal des-cbc-crc:normal ?
            rc4-hmac:normal
            }

          Windows Client Setup

          • Kerberos Configuration
          • Use the ksetup.exe command to add the site Kerberos servers.

            $ ksetup.exe /addkdc EXAMPLE.ORG kerberos-1.example.org
            $ ksetup.exe /addkdc EXAMPLE.ORG kerberos-2.example.org
            $ ksetup.exe /addkdc EXAMPLE.ORG kerberos.example.org
            $ ksetup.exe /addkpasswd EXAMPLE.ORG kerberos.example.org
            $ ksetup.exe /setrealm EXAMPLE.ORG

          • Host principals
          • Create host principals on each Windows client, then use the same password to create an equivalent principal in the MIT Kerberos database. If using an installation system such as Unattended, use a script to generate the random password and setup the host principal.

            #!/usr/bin/perl

            my $domain = 'example.org';

            my $password = '';
            my @chars = grep { /[[:print:]]/ and /\S/ } map { chr } 1..128;
            $password .= $chars[rand @chars] for 1..(int (rand 7)) + 8;

            system qw{ksetup.exe /setcomputerpassword}, $password;

            print "Principal: host/", lc( $ENV{COMPUTERNAME} ), ".$domain\n";
            print "Password: $password\n";

            Then, use kdamin to add an equivalent principal to the Kerberos database, using the same password as above. Use the -e rc4-hmac:normal encryption option if adding a principal for a Windows XP system.

            kadmin: ank -e rc4-hmac:normal host/client.example.org

          • User Mapping
          • User mapping translates local accounts to the Kerberos domain. See module:users for user account management under CFEngine.

            $ ksetup.exe /mapuser * *

          Samba

          Windows clients can authenticate to Samba using Kerberos. Use Samba version 3.0.14a or higher on the server, and enable Kerberos support in the smb.conf configuration file.

          [global]
          use kerberos keytab = yes
          realm = EXAMPLE.ORG
          security = ads

          Multiple host and cifs principals must be created for each Samba server, as principals are case sensitive, and Windows systems may randomly start using Server.example.org or SERVER.EXAMPLE.ORG when connecting. Extract these principals to the /etc/krb5.keytab file on each Samba server.

          kadmin: ank -randkey host/server.example.org
          kadmin: ank -randkey host/Server.example.org
          kadmin: ank -randkey host/SERVER.EXAMPLE.ORG
          kadmin: ank -randkey cifs/server.example.org
          kadmin: ank -randkey cifs/Server.example.org
          kadmin: ank -randkey cifs/SERVER.EXAMPLE.ORG
          kadmin: ktadd -k /etc/krb5.keytab host/server.example.org
          kadmin: ktadd -k /etc/krb5.keytab host/Server.example.org
          kadmin: ktadd -k /etc/krb5.keytab host/SERVER.EXAMPLE.ORG
          kadmin: ktadd -k /etc/krb5.keytab cifs/server.example.org
          kadmin: ktadd -k /etc/krb5.keytab cifs/Server.example.org
          kadmin: ktadd -k /etc/krb5.keytab cifs/SERVER.EXAMPLE.ORG

          posted @ 2013-05-18 15:04 ivaneeo 閱讀(358) | 評(píng)論 (0)編輯 收藏


          1.首先安裝后,有一個(gè)180天的試用期。
          2.在180天試用期即將結(jié)束時(shí),使用下面的評(píng)估序列號(hào)激活Svr 2008 R2 可以重新恢復(fù)180天試用期
          Windows Server 2008 R2 Web: KBV3Q-DJ8W7-VPB64-V88KG-82C49
          Windows Server 2008 R2 Standard: 4GGC4-9947F-FWFP3-78P6F-J9HDR
          Windows Server 2008 R2 Enterprise: 7PJBC-63K3J-62TTK-XF46D-W3WMD
          Windows Server 2008 R2 Datacenter: QX7TD-2CMJR-D7WWY-KVCYC-6D2YT
          3.在180天試用期即將結(jié)束時(shí),用“Rearm”后,重新輸入上面的序列號(hào),重啟電腦,剩余時(shí)間又恢復(fù)到180天。微軟官方文檔中聲明該命令只能重復(fù)使用5次。
          4.上面的方法5次后,此后將無法再次使用。就要進(jìn)行下一步,修改注冊表中的一處鍵值(SkipRearm),以后就可以再次使用“Rearm”的命令,這個(gè)鍵值總共可以修改8次。
          5.因此……。
          posted @ 2013-05-08 17:47 ivaneeo 閱讀(338) | 評(píng)論 (0)編輯 收藏

                  char Str[20];
                  int ret;
                  ret = sprintf(Str, "%llu",ifconfig.flags);
          posted @ 2013-04-22 21:29 ivaneeo 閱讀(309) | 評(píng)論 (0)編輯 收藏

          僅列出標(biāo)題
          共67頁: First 上一頁 7 8 9 10 11 12 13 14 15 下一頁 Last 
          主站蜘蛛池模板: 大名县| 达拉特旗| 宁津县| 仁寿县| 阿瓦提县| 西乌珠穆沁旗| 仁怀市| 巴东县| 布拖县| 女性| 图们市| 玉龙| 拜城县| 龙江县| 漳浦县| 开原市| 大洼县| 和顺县| 玛多县| 西畴县| 浦城县| 桓台县| 射阳县| 乌鲁木齐市| 旬阳县| 岱山县| 临夏县| 十堰市| 治多县| 赣榆县| 鄂伦春自治旗| 阳西县| 同心县| 固安县| 阳新县| 洱源县| 香港 | 老河口市| 星座| 静乐县| 曲阜市|