posts - 110,  comments - 152,  trackbacks - 0

          下午配置成功了Nutch0.9.截圖記錄一下。

          nutchsuccess

           

           

           

           

           

           

           

          網絡上面介紹這個配置的比較多,我就不重復勞動了。

          推薦文檔如下:Nutch Version 0.8x tutorial ,還有就是這里的篇日志

          我在這里記錄一下遇到的幾個錯誤和解決辦法,大家可能有用。

          如執行如下命令:
          ./nutch crawl ../urls.txt  -dir ../ihooyo  -depth 5 -topN 100
          參數說明:
          -url 就是剛才我們創建的url文件,存放我們要抓取的網址
          -dir 指定抓取內容所存放的目錄,如上存在mydir中
          -threads 指定并發的線程數
          -depth 表示以要抓取網站頂級網址為起點的爬行深度
          -topN 表示獲取前多少條記錄,可省

          可能錯誤1:

          Generator: jobtracker is 'local', generating exactly one partition.
          Generator: 0 records selected for fetching, exiting ...
          Stopping at depth=0 - no more URLs to fetch.
          No URLs to fetch - check your seed list and URL filters.
          crawl finished: sina5

          說明:指定要抓取的網址(url.txt)經過(crawl-urlfilters.xml)過濾后,已經沒有可抓取對象了,檢查兩者的匹配即可。

          可能錯誤2:

          Dedup: starting
          Dedup: adding indexes in: ../ihooyo/indexes
          Exception in thread "main" java.io.IOException: Job failed!
                  at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:604)
                  at org.apache.nutch.indexer.DeleteDuplicates.dedup(DeleteDuplicates.java:439)
                  at org.apache.nutch.crawl.Crawl.main(Crawl.java:135)

          說明:一般為./conf/nutch-site.xml文件配置有錯誤。請參考如下配置修改。
          [xml]
          <property>
          <name>http.agent.name</name>
          <value>ihooyo</value>
          <description></description>
          </property>
          <property>
          <name>http.agent.description</name>
          <value>apersonblog</value>
          <description></description>
          </property>
          <property>
          <name>http.agent.url</name>
          <value>www.ihooyo.com</value>
          <description></description>
          </property>
          <property>
          <name>http.agent.email</name>
          <value>pjuneye@qq.com</value>
          <description></description>
          </property>
          [/xml]
          這種配置錯誤,在log日志中可找到提示。

          可能錯誤3:

          Injector: Converting injected urls to crawl db entries.
          Exception in thread "main" java.io.IOException: Job failed!
                  at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:604)
                  at org.apache.nutch.crawl.Injector.inject(Injector.java:162)
                  at org.apache.nutch.crawl.Crawl.main(Crawl.java:115)

          說明:一般為crawl-urlfilters.txt中配置問題,比如過濾條件應為
          +^http://www.ihooyo.com ,而配置成了 http://www.ihooyo.com 這樣的情況就引起如上錯誤。

          好了寫完了。



          平凡而簡單的人一個,無權無勢也無牽無掛。一路廝殺,只進不退,死而后已,豈不爽哉!
          收起對“車”日行千里的羨慕;收起對“馬”左右逢緣的感嘆;目標記在心里面,向前進。一次一步,一步一腳印,跬步千里。
          這個角色很適合現在的


          posted on 2008-04-01 17:11 過河卒 閱讀(1600) 評論(0)  編輯  收藏 所屬分類: Java/Java框架
          文章來自: http://www.blogjava.com/ponzmd/ (彭俊-過河卒) 轉貼請聲明!
          訪問統計:
          主站蜘蛛池模板: 翁源县| 和硕县| 镇赉县| 康保县| 进贤县| 安龙县| 奉节县| 灵璧县| 胶州市| 大安市| 和龙市| 崇礼县| 万州区| 鄂尔多斯市| 如东县| 徐闻县| 长岭县| 巫溪县| 桦南县| 那曲县| 武清区| 滕州市| 九寨沟县| 凤台县| 株洲县| 陆良县| 客服| 黔西| 阜新| 金秀| 中卫市| 额敏县| 白沙| 岑巩县| 凤山县| 石狮市| 巴林左旗| 报价| 崇州市| 金坛市| 正宁县|