posts - 195, comments - 34, trackbacks - 0, articles - 1

          zz:SVM相關理論

          Posted on 2008-06-21 01:12 小強摩羯座 閱讀(366) 評論(0)  編輯  收藏 所屬分類: “智能”方向
          SVM相關理論
          2007-11-30 12:35

          基于數(shù)據(jù)的機器學習是現(xiàn)代智能技術中的重要方面,研究從觀測數(shù)據(jù)(樣本)出發(fā)尋找規(guī)律,利用這些規(guī)律對未來數(shù)據(jù)或無法觀測的數(shù)據(jù)進行預測。迄今為止,關于機器學習還沒有一種被共同接受的理論框架,關于其實現(xiàn)方法大致可以分為三種[3]:

          第一種是經(jīng)典的(參數(shù))統(tǒng)計估計方法。包括模式識別、神經(jīng)網(wǎng)絡等在內(nèi),現(xiàn)有機器學習方法共同的重要理論基礎之一是統(tǒng)計學。參數(shù)方法正是基于傳統(tǒng)統(tǒng)計學的,在這種方法中,參數(shù)的相關形式是已知的,訓練樣本用來估計參數(shù)的值。這種方法有很大的局限性.
          首先,它需要已知樣本分布形式,這需要花費很大代價,還有,傳統(tǒng)統(tǒng)計學研究的是樣本數(shù)目趨于無窮大時的漸近理論,現(xiàn)有學習方法也多是基于此假設。但在實際問題中,樣本數(shù)往往是有限的,因此一些理論上很優(yōu)秀的學習方法實際中表現(xiàn)卻可能不盡人意。

          第二種方法是經(jīng)驗非線性方法,如人工神經(jīng)網(wǎng)絡(ANN)。這種方法利用已知樣本建立非線性模型,克服了傳統(tǒng)參數(shù)估計方法的困難。但是,這種方法缺乏一種統(tǒng)一的數(shù)學理論。與傳統(tǒng)統(tǒng)計學相比,統(tǒng)計學習理論(Statistical Learning Theory或SLT)是一種專門研究小樣本情況下機器學習規(guī)律的理論。該理論針對小樣本統(tǒng)計問題建立了一套新的理論體系,在這種體系下的統(tǒng)計推理規(guī)則不僅考慮了對漸近性能的要求,而且追求在現(xiàn)有有限信息的條件下得到最優(yōu)結果。V. Vapnik等人從六、七十年代開始致力于此方面研究,到九十年代中期,隨著其理論的不斷發(fā)展和成熟,也由于神經(jīng)網(wǎng)絡等學習方法在理論上缺乏實質(zhì)性進展,統(tǒng)計學習理論開始受到越來越廣泛的重視。
          統(tǒng)計學習理論的一個核心概念就是VC維(VC Dimension)概念,它是描述函數(shù)集或?qū)W習機器的復雜性或者說是學習能力(Capacity of the machine)的一個重要指標,在此概念基礎上發(fā)展出了一系列關于統(tǒng)計學習的一致性(Consistency)、收斂速度、推廣性能(Generalization Performance)等的重要結論。
          統(tǒng)計學習理論是建立在一套較堅實的理論基礎之上的,為解決有限樣本學習問題提供了一個統(tǒng)一的框架。它能將很多現(xiàn)有方法納入其中,有望幫助解決許多原來難以解決的問題(比如神經(jīng)網(wǎng)絡結構選擇問題、局部極小點問題等);
          同時,這一理論基礎上發(fā)展了一種新的通用學習方法──支持向量機(Support Vector Machine或SVM),已初步表現(xiàn)出很多優(yōu)于已有方法的性能。一些學者認為,SLT和SVM正在成為繼神經(jīng)網(wǎng)絡研究之后新的研究熱點,并將推動機器學習理論和技術有重大的發(fā)展。

          支持向量機方法是建立在統(tǒng)計學習理論的VC維理論和結構風險最小原理基礎上的,根據(jù)有限的樣本信息在模型的復雜性(即對特定訓練樣本的學習精度,Accuracy)和學習能力(即無錯誤地識別任意樣本的能力)之間尋求最佳折衷,以期獲得最好的推廣能力(Generalizatin Ability)。支持向量機方法的幾個主要優(yōu)點有:
          1. 它是專門針對有限樣本情況的,其目標是得到現(xiàn)有信息下的最優(yōu)解而不僅僅是樣本數(shù)趨于無窮大時的最優(yōu)值;
          2. 算法最終將轉(zhuǎn)化成為一個二次型尋優(yōu)問題,從理論上說,得到的將是全局最優(yōu)點,解決了在神經(jīng)網(wǎng)絡方法中無法避免的局部極值問題;
          3. 算法將實際問題通過非線性變換轉(zhuǎn)換到高維的特征空間(Feature Space),在高維空間中構造線性判別函數(shù)來實現(xiàn)原空間中的非線性判別函數(shù),特殊性質(zhì)能保證機器有較好的推廣能力,同時它巧妙地解決了維數(shù)問題,其算法復雜度與樣本維數(shù)無關;

          在SVM方法中,只要定義不同的內(nèi)積函數(shù),就可以實現(xiàn)多項式逼近、貝葉斯分類器、徑向基函數(shù)(Radial Basic Function或RBF)方法、多層感知器網(wǎng)絡等許多現(xiàn)有學習算法。
          統(tǒng)計學習理論從七十年代末誕生,到九十年代之前都處在初級研究和理論準備階段,近幾年才逐漸得到重視,其本身也趨向完善,并產(chǎn)生了支持向量機這一將這種理論付諸實現(xiàn)的有效的機器學習方法。
          目前,SVM算法在模式識別、回歸估計、概率密度函數(shù)估計等方面都有應用。
          例如,在模式識別方面,對于手寫數(shù)字識別、語音識別、人臉圖像識別、文章分類等問題,SVM算法在精度上已經(jīng)超過傳統(tǒng)的學習算法或與之不相上下。
          目前,國際上對這一理論的討論和進一步研究逐漸廣泛,而我國國內(nèi)尚未在此領域開展研究,因此我們需要及時學習掌握有關理論,開展有效的研究工作,使我們在這一有著重要意義的領域中能夠盡快趕上國際先進水平。由于SLT理論和SVM方法尚處在發(fā)展階段,很多方面尚不完善,比如:許多理論目前還只有理論上的意義,尚不能在實際算法中實現(xiàn);而有關SVM算法某些理論解釋也并非完美(J.C.Burges在[2]中就曾提到結構風險最小原理并不能嚴格證明SVM為什么有好的推廣能力);此外,對于一個實際的學習機器的VC維的分析尚沒有通用的方法;SVM方法中如何根據(jù)具體問題選擇適當?shù)膬?nèi)積函數(shù)也沒有理論依據(jù)。因此,在這方面我們可做的事情是很多的。

          上文引自 水母bbs AI版

          相關資源

          SVM的英文主站,
          http://www.kernel-machines.org/

          Support Vector Machine 作者的站點
          http://www.support-vector.net

          piaip 的 (lib)SVM 簡易入門
          http://ntu.csie.org/~piaip/svm/svm_tutorial.html

          林智仁(cjlin)老師的 libsvm for matlab
          LIBSVM — A Library for Support Vector Machines
          Chih-Chung Chang and Chih-Jen Lin
          http://www.csie.ntu.edu.tw/~cjlin/libsvm/



          主站蜘蛛池模板: 兖州市| 阳曲县| 山西省| 喀喇沁旗| 措美县| 政和县| 五寨县| 泾阳县| 黄陵县| 七台河市| 宁波市| 万全县| 东方市| 石楼县| 丰都县| 常熟市| 久治县| 齐齐哈尔市| 如皋市| 鹿邑县| 阿克苏市| 湖北省| 思茅市| 安康市| 紫云| 岢岚县| 乌拉特前旗| 郴州市| 潮安县| 邵东县| 莱芜市| 张家界市| 电白县| 兴和县| 彰化县| 平顶山市| 建始县| 东丰县| 保山市| 锦州市| 陕西省|