隨筆 - 10, 文章 - 0, 評論 - 2, 引用 - 0
          數據加載中……

          2006年8月21日

          tss中文:開源面向對象的數據庫db4o 5.5版發布了

          ?tss中文:開源面向對象的數據庫db4o 5.5版發布了

          近日db4objects發布了開源面向對象數據庫 db4o 5.5 版本. 這個版本的焦點是提高了性能降低了內存耗用,特別針對資源緊張的嵌入式開發提供了支持。

          具體的改進特性:
          - 類索引使用新BTree架構,極大減少了事務提交的時間,對象個數在10萬之1千萬的索引時表現極為明顯。
          -通過更好的群集插槽方式,改進字符串和數組的序列化方式,在插入和修改時提高了效率。

          -提供了診斷工具包,幫助程序員更容易開發出高效程序。

          -本次改進效率的提升可以讓內存耗用更低。


          伴隨著?這次發布,db4objects 還提供了用戶交流社區:
          這里 。??

          原文: db4o open source object database v 5.5 released

          posted @ 2006-08-21 18:25 我要去桂林 閱讀(244) | 評論 (0)編輯 收藏

          2005年11月28日

          一種面向搜索引擎的網頁分塊、切片的原理,實現和演示

          一種面向搜索引擎的網頁分塊、切片的原理,實現和演示



          最近看到 2005 年的 全國搜索引擎和網上信息挖掘學術研討會 上 華南木棉信息檢索的隊長 歐健文 的 華南木棉信息檢索 的ppt。很有啟發。

          于是自己也根據自己的理解準備做一個實現。
          實現前提假設:
              1、網頁分塊切分的基本單位是html中的table , div 等標簽(目前版本只支持:table ,div 標簽)。
              2、網頁分塊切片識別依賴于相似url的對比。比如:我們認為一下兩個url的網頁html文本結構相似:
                  http://news.soufun.com/2005-11-26/580107.htm
                  http://news.soufun.com/2005-11-26/580175.htm
                 而下面兩個url的網頁結構不相似:
                  http://news.soufun.com/subject/weekly051121/index.html
                  http://news.soufun.com/2005-11-26/580175.htm

          用途:
              1、根據分析網頁結構區分網頁是 主題型網頁 還是 目錄型網頁;
              2、根據分析網頁結構 找出 網頁的 主題內容,相關內容和噪音內容;

          實現的3個階段:
              1、對網頁結構進行合理切片;
              2、比較相似網頁的切片結構;
              3、分析切片數據,得出結論。
          演示地址:
                 http://www.domolo.com:8090/domoloWeb/html-page-slice.jsp


          posted @ 2005-11-28 10:17 我要去桂林 閱讀(650) | 評論 (0)編輯 收藏

          2005年10月12日

          一種快速的未登陸詞識別方法(原理和實現)

          一種快速的未登陸詞識別方法(原理和實現)
             
              最近網絡上關于分詞的算法已經很多了,在實際應用中每個人根據對分詞的不同理解寫了不同的中文分詞算法,可謂百花齊放.
              但現在似乎還沒有針對未登陸詞的識別算法,有鑒于此,我特地寫了一個,拋磚引玉.

              算法的假設:
              1. 未登陸詞是由單字組成的;
              2. 如果一個字同時屬于2個未登陸詞,那么只選擇第一被識別的詞;

              測試文章:
              最近電視劇大長今很火,我就選取了介紹大長今的文章,
              地址:http://www.360doc.com/showWeb/0/0/18183.aspx
              識別結果如下:
                  PDH : initialize phrase dictionary
                  QuerySpliter reInitialize dictionary.
                  長今,職場,閔政浩,韓劇,鄭云白,連生,主簿,冷廟高香,義字,醫女,張德,剩者,濟州,選撥,文秘

              算法原理:
              首先找出已經分詞后的單字,然后查看單字的下一個是否還是單字,如果是,判斷這種情況出現的次數,如果超過預訂的閥值,那么就確認這是一個新詞.
              下面是一個算法的計算過程展示:
              PDH : initialize phrase dictionary
              QuerySpliter reInitialize dictionary.
              >>>8,9;9,10
              長今
              >>>237,238;238,239
              職場
              >>>595,596;596,597;597,598
              閔政浩
              >>>189,190;190,191
              韓劇
              >>>1111,1112;1112,1113;1113,1114
              鄭云白
              >>>599,600;600,601
              連生
              >>>610,611;611,612
              主簿
              >>>975,976;976,977;977,978;978,979
              冷廟高香
              >>>1233,1234;1234,1235
              義字
              >>>559,560;560,561
              醫女
              >>>561,562;562,563
              張德
              >>>3114,3115;3115,3116
              剩者
              >>>534,535;535,536
              濟州
              >>>580,581;581,582
              選撥
              >>>2071,2072;2072,2073
              文秘
              本算法是在:小叮咚分詞的基礎上進行的.
              歡迎大家一起交流,改進這個算法.
                 
              相關連接:
                       
          基于最長詞匹配算法變形的分詞系統( 文舫工作室貢獻 )
                                 小叮咚中文分詞在處理大量數據的時候碰到了內存泄漏的問題
                                 Lucene使用者沙龍

               原帖地址



          posted @ 2005-10-12 16:16 我要去桂林 閱讀(748) | 評論 (0)編輯 收藏

          2005年8月29日

          什么是垂直搜索引擎(之二)

          什么是垂直搜索引擎(之二)

          垂直搜索引擎的三個特點:

          1、垂直搜索引擎抓取的數據來源于垂直搜索引擎關注的行業站點:
              比如:找工作的搜索引擎 www.deepdo.com 的數據來源于:www.51job.com , www.zhaoping.com , www.chinahr.com 等等;
                    股票搜索引擎 www.macd.cn 的數據來源于: www.jrj.com.cn , www.gutx.com 等股票站點;
          2、垂直搜索引擎抓取的數據傾向于結構化數據和元數據
              比如:我們找工作關注的:
                  職位信息: 軟件工程師;
                  公司名稱,行業名稱:軟件公司,外包行業等;
                  地點:北京,海淀;
          3、垂直搜索引擎的搜索行為是基于結構化數據和元數據的結構化搜索:
                  比如: 找:海淀 軟件工程師 的工作等。

          垂直搜索引擎站點的8條準則:

          1、選擇一個好的垂直搜索方向。俗話說男怕選錯行,這一點對于搜索引擎來說也是一樣的,除了選擇的這個行業有垂直搜索的大量需求外,這個行業的數據屬性最好不要和
          Yahoo,Google等通用搜索的的抓取方向重疊。
              目前熱門的垂直搜索行業有:購物,旅游,汽車,工作,房產,交友等行業。搜索引擎對動態url數據不敏感也是眾所周知的,這些可以作為垂直搜索引擎的切入點;

          2、評價所選垂直搜索行業的網站、垂直搜索內容、行業構成等情況
              我們都知道垂直搜索引擎并不提供內容來源,它的數據依賴爬蟲搜集,并做了深度加工而來的。因此考慮垂直搜索引擎的所處的大環境和定位至關重要。
          3、深入分析垂直搜索引擎的索引數據特點
              垂直搜索引擎的索引數據過于結構化,那么進入的門檻比較低,行業競爭會形成一窩蜂的局面;如果搜索數據特點是非結構化的,抓取,分析這樣的數據很困難,進入壁
          壘太高,很可能出師未杰身先死。
          4、垂直搜索引擎的索引數據傾向于結構化數據和元數據,這個特點是區別于yahoo,google等通用搜索引擎的,這是垂直搜索引擎的立足點。而垂直搜索引擎是根植于某一個行業 ,因此行業知識,行業專家這些也是通用搜索引擎不具備的。也就是說進入垂直搜索是有門檻的。
          5、垂直搜索引擎的搜索結果要覆蓋整個行業,搜索相關性要高于通用搜索引擎,貼近用戶搜索意圖,搜索結果要及時。
          6、垂直搜索引擎的web 2.0 需求
              垂直搜索引擎的搜索數據由于帶有結構化的天性,相對于通用搜索引擎的全文索引而言,更顯的少而精。因此,設計的時候要提供收集用戶數據的接口,同時提供tag,積
          分等機制,使搜索結果更加“垂直”。
          7、垂直搜索引擎的目標是幫助用戶解決問題,而不只是向通用搜索引擎一樣發現信息
              這一點是垂直搜索引擎的終極目標。 在做垂直搜索引擎的時候你需要考慮:什么問題是這個行業內的特殊性問題,什么問題是一般性問題。keso多次提到google的目標是
          讓 用戶盡快離開google,而垂直搜索引擎應該粘住用戶。一般來說,使用垂直搜索引擎的用戶都是和用戶的利益需求密切相關的。所謂利益需求是我自己獨創 的,大意是和用戶工作密切相關,生活中必不可少的需求,而求有持續性。比如:學生找論文,業主找裝修信息等等這樣的需求。因此粘住用戶,讓用戶有反饋的途 徑是一個關鍵部分。
          8、垂直搜索引擎的社區化特征
              這一條和第9條是相關的。
              俗話說物以類聚,人以群分,垂直搜索引擎定位于一個行業,服務于一群特定需求的人群,這個特點決定了垂直搜索的社區化行為。人們利用垂直搜索引擎解決問題,分享回饋。現在做網站都講求社區化,所以垂直搜索引擎本質上還是:對垂直門戶信息提供方式的一次簡化性的整合。

              相關連接:什么是垂直搜索引擎

               原帖地址

          posted @ 2005-08-29 16:08 我要去桂林 閱讀(454) | 評論 (1)編輯 收藏

          2005年6月23日

          Boyer-moor 字符串搜索算法

          Boyer-moor 字符串搜索算法

              最近因為需要從大量的文本中檢索字符串,于是想比較一下java jdk提供的 indexof 算法,和其他字符串搜索算法的效率。字符串搜索算法有多種,其中比較有名的是boyer-moore算法。在Moore 先生的主頁上有關于 boyer-moore算法的詳細介紹。
              moore先生介紹的通俗易懂,相信大家都能看明白。

               同時還看到:Boyer-Moore串查找JAVA算法這篇文章 ,可惜是安徽工業大學的內部刊物,無法看到文章的詳情,真是遺憾。   

          相關連接:
                            
          boyer-moore 算法文檔中心
                                         多么樂

          posted @ 2005-06-23 23:26 我要去桂林 閱讀(381) | 評論 (0)編輯 收藏

          2005年6月22日

          多么樂alexa網站流量數據報告助手

          多么樂alexa網站流量數據報告助手

             為了您方便的獲取您所關心網站的alexa網站流量數據,多么樂特的為您制作了這款工具,使用方法很簡單,只要按照要求輸入網站地址和您的郵件地址并制定郵件發送的時間,我們就會定期給您 發送alaxe統計數據。

            在以后我們還會對數據進行進一步分析,提供更加滿意的服務!

          156 2750 8.0


          相關連接:Alaxe 網站數據助手

          posted @ 2005-06-22 08:44 我要去桂林 閱讀(276) | 評論 (0)編輯 收藏

          2005年6月19日

          多么樂 搜索引擎索引量報告--實現了自動發送周報功能

          多么樂 搜索引擎索引量報告--實現了自動發送周報功能

                自從 多么樂 搜索引擎 索引量 統計報告發布一來已經有100多位站長登陸使用;為了把這部分數據主動送到各位站長手中,我特地制作了 這個周報功能,他將會在沒周六下午3點10分,給您提供貴站在google,baidu,yisou,msn等主流搜索引擎上的索引量數據。

                 如果您想也使用這項功能,您可以在: 搜索引擎統計  上登陸您的網址,(注意按照要求填寫。)

                 并提供您的Email地址。

                 如果有意見和建議請發信到: xiaodingdong@gmail.com 

                  下面是一個郵件例子:


           


           

          多么樂 搜索引擎索引量報告

          網址 日期 搜索引擎 平均索引量
          blogchina.com 2005-06-12 baidu 8,770,000.0
          blogchina.com 2005-06-12 google 2,520,000.0
          blogchina.com 2005-06-12 msn 212,088.00
          blogchina.com 2005-06-12 yisou 5,632,696.0
          blogchina.com 2005-06-13 baidu 8,740,000.0
          blogchina.com 2005-06-13 google 1,210,000.0
          blogchina.com 2005-06-13 msn 224,448.00
          blogchina.com 2005-06-13 yisou 5,788,532.0
          blogchina.com 2005-06-14 baidu 9,320,000.0
          blogchina.com 2005-06-14 google 1,110,000.0
          blogchina.com 2005-06-14 msn 212,176.00
          blogchina.com 2005-06-14 yisou 5,904,606.0
          blogchina.com 2005-06-16 baidu 41,670,000.
          blogchina.com 2005-06-16 msn 1,068,831.0
          blogchina.com 2005-06-16 yisou 27,161,082.
          blogchina.com 2005-06-17 baidu 42,030,000.
          blogchina.com 2005-06-17 msn 109,929.00
          blogchina.com 2005-06-17 yisou 27,369,993.
          blogchina.com 2005-06-18 baidu 46,900,000.
          blogchina.com 2005-06-18 google 9,310,000.0
          blogchina.com 2005-06-18 yisou 30,492,025.
          itpub.net 2005-06-12 baidu 862,000.00
          itpub.net 2005-06-12 google 261,000.00
          itpub.net 2005-06-12 msn 14,070.00
          itpub.net 2005-06-12 yisou 42,090.00
          itpub.net 2005-06-13 baidu 857,000.00
          itpub.net 2005-06-13 google 132,000.00
          itpub.net 2005-06-13 msn 13,538.00
          itpub.net 2005-06-13 yisou 42,100.00
          itpub.net 2005-06-14 baidu 866,000.00
          itpub.net 2005-06-14 google 132,000.00
          itpub.net 2005-06-14 msn 12,994.00
          itpub.net 2005-06-14 yisou 41,274.00
          itpub.net 2005-06-16 baidu 3,861,000.0
          itpub.net 2005-06-16 msn 57,906.00
          itpub.net 2005-06-16 yisou 180,648.00
          itpub.net 2005-06-17 baidu 3,906,000.0
          itpub.net 2005-06-17 yisou 178,585.00
          itpub.net 2005-06-18 baidu 4,360,000.0
          itpub.net 2005-06-18 google 1,040,000.0
          itpub.net 2005-06-18 yisou 198,450.00

          多么樂 搜索引擎索引量報告

          posted @ 2005-06-19 08:23 我要去桂林 閱讀(367) | 評論 (0)編輯 收藏

          2005年5月29日

          關于 小叮咚中文分詞 .net版本發布的變化

           關于 小叮咚中文分詞  .net版本發布的變化

              現在幾乎每天都有朋友給我寫信,要求交流小叮咚中文分詞的實現。我現在實現的有java和C#兩個版本。同樣的算法邏輯,用 java 和 C#寫兩邊可不是有趣的事情 。于是自然而然想起了 關于lucene發展和多語言實現的方向  中采用的方法,于是決定以后主要更新java版本的中文分詞算法,而.net版本的中文分詞則在java class基礎上轉化過來。

              很早的時候我的一篇blog介紹過:基于.NET的Java虛擬機IKVM介紹 。于是今天就嘗試了一把,整個過程還算順利。下面是我的轉換過程:

             
              X:\ikvmbin-0.14.0.1\ikvm\bin>ikvmc -target:library X:\XXXX\chinese_sentence_splitter.jar
              Note: output file is "chinese_sentence_splitter.dll"
              Note: automatically adding reference to "e:\programming\java&.net\ikvmbin-0.14.0.1\ikvm\bin\ikvm.gnu.classpath.dll"

              通過上面的命令可以把 java jar 文件轉換成  同名的 .net dll。

              在java中測試的結果如下:

             

              但在.net中測試的結果卻不正確:

             

           

              這很顯然是IKVM.NET在轉換過程中出現了問題。

              由于第一次使用IKVM.NET,因此這個問題還需要在以后有時間解決一下。也希望有相關經驗的朋友多多指導.


              相關連接:

                      多么樂
                      小叮咚中文分詞

          posted @ 2005-05-29 21:56 我要去桂林 閱讀(581) | 評論 (0)編輯 收藏

          2005年5月27日

          小叮咚 中文分詞 發布 java 版本 , c# 版本 , c++ 版本

          小叮咚 中文分詞 發布 java 版本 , c# 版本 , c++ 版本

              最近關于中文分詞的處理逐漸多了起來,我以前的文章也零星的介紹過許多這方面的技術??傆幸恍┡笥褋硇潘饕形姆衷~的代碼,而且要不同版本的,鑒于這個情況,我把我對分詞的理解,按照java,C#語言各自實現了一份。C++的版本,還是用中科院的ICTCLAS 畢竟這個分詞程序是很多分詞的鼻祖。

              大家可以到:小叮咚中文分詞主頁查看詳情。

              程序還有很多不完善的地方,功能列表和開發文檔現在都不完整,希望有這方面愛好的朋友一起參與進來,完善,提高。

              也歡迎大家來信討論:  xiaodingdong@gmail.com

               田春峰

               相關聯接:

                          小叮咚分詞主頁

                          計算所漢語詞法分析系統ICTCLAS 字典格式解析

                           一種面向搜索引擎的中文切分詞方法

                           公開小叮咚分詞源代碼

          posted @ 2005-05-27 06:47 我要去桂林 閱讀(770) | 評論 (1)編輯 收藏

          2005年4月17日

          多么樂互聯網 google索引量統計

          多么樂互聯網 google索引量統計

          多么樂互聯網 google索引量統

              您想知道自己主頁在google的索引量的統計嗎?你想知道自己主頁在google上的索引量是如何變化的嗎?
              如果想,不妨到:
          http://www.domolo.com/domolo/domoloindex/index.aspx 輸入您的網址,我們會為您免費進行google索引量的統計。
              我們會每小時一次統計,每天生成一份統計報告,統計報告頁面如下:

          http://www.domolo.com/domolo/domoloindex/google2005-04-16.html


              上面的地址是當日20050416的google索引量的統計。統計數據的來源是每小時google索引量的平均值。

          如果您想統計自己網站的google索引量,您可以在
          http://www.domolo.com/domolo/domoloindex/index.aspx
          這個地址上,錄入您的網址,我們就可以為您自動統計貴站的google索引了。

              訪問方式
          http://www.domolo.com/domolo/domoloindex/google2005-04-16.html
          上面鏈接中的日期換成當前日期即可!

          歡迎您的參與使用,
          并希望提出您的寶貴意見:
          田春峰的留言簿

          ------------

          今天剛加了對baidu索引量的統計,第一天運行,就有幾個朋友注冊,不錯呀。

          http://www.domolo.com/domolo/domoloindex/google2005-04-17.html

          多么樂互聯網索引量統計

          生成時間:

          網址 統計次數 平均索引量
          soufun.com  15  1141533 
          domolo.com  15  7 
          sohu.com  30  1473400 
          sina.com.cn  15  1080066 
          donews.com  15  374333 
          donews.net  15  169186 
          www.myknots.com  11  4170 
          diyinside.com  3  167 
          www.dearbook.com.cn  1  123000 

          相關鏈接:


          機器人聊天


          機器人聊天

          網摘  

          近日心情

          愛吧

          CtrlC 源代碼搜索引擎


          posted @ 2005-04-17 06:26 我要去桂林 閱讀(312) | 評論 (0)編輯 收藏

          主站蜘蛛池模板: 南投市| 香河县| 五常市| 衢州市| 阿坝县| 宣恩县| 西盟| 石渠县| 榆中县| 宁海县| 府谷县| 遂昌县| 洞头县| 南昌县| 双城市| 廊坊市| 合作市| 旬阳县| 湘潭县| 武冈市| 台安县| 山西省| 台东县| 临高县| 崇义县| 碌曲县| 新建县| 青川县| 灵璧县| 达州市| 永修县| 雷波县| 鲜城| 临清市| 咸阳市| 安达市| 屏南县| 宣城市| 六安市| 高青县| 定远县|