我的評論
re: SVM入門(六)線性分類器的求解——問題的轉化,直觀角度[未登錄] wfw 2013-07-29 09:33
'樣本確定了w,用數學的語言描述,就是w可以表示為樣本的某種組合:
w=α1x1+α2x2+…+αnxn'
這個也不太明白,為什么w是x的線性組合函數?
w=α1x1+α2x2+…+αnxn'
這個也不太明白,為什么w是x的線性組合函數?
re: SVM入門(一)至(三)Refresh[未登錄] wfw 2013-07-28 16:27
'高維模式識別是指樣本維數很高,例如文本的向量表示,如果沒有經過另一系列文章(《文本分類入門》)中提到過的降維處理,出現幾萬維的情況很正常,其他算法基本就沒有能力應付了,SVM卻可以,主要是因為SVM 產生的分類器很簡潔,用到的樣本信息很少(僅僅用到那些稱之為“支持向量”的樣本,此為后話),使得即使樣本維數很高,也不會給存儲和計算帶來大麻煩(相對照而言,kNN算法在分類時就要用到所有樣本,樣本數巨大,每個樣本維數再一高,這日子就沒法過了……)。'
其心有兩個地方不理解:
1. ‘其他算法基本就沒能力應付了’中其他算法出了后面提到的knn還有誰?粗略想了一下常見的分類算法,貝葉斯,決策樹,線性回歸,邏輯回歸這些都OK吧?
2. ‘用到的樣本信息很少’大概明白LZ的意思,但還是感覺有點。。。
其心有兩個地方不理解:
1. ‘其他算法基本就沒能力應付了’中其他算法出了后面提到的knn還有誰?粗略想了一下常見的分類算法,貝葉斯,決策樹,線性回歸,邏輯回歸這些都OK吧?
2. ‘用到的樣本信息很少’大概明白LZ的意思,但還是感覺有點。。。
re: SVM入門(一)至(三)Refresh[未登錄] wfw 2013-07-28 16:10
'為SVM關注的是VC維,后面我們可以看到,SVM解決問題的時候,和樣本的維數是無關的'
不是很理解VC維和這句話,我的理解是VC維和樣本維度是相關的,比如樣本維度是2,最多就有2^2個樣本,如果是二分類問題,’最大的VC維‘就是2^(2^2)
如果相關的話,上面的話不是矛盾么?
不是很理解VC維和這句話,我的理解是VC維和樣本維度是相關的,比如樣本維度是2,最多就有2^2個樣本,如果是二分類問題,’最大的VC維‘就是2^(2^2)
如果相關的話,上面的話不是矛盾么?