機器學習與深度學習中的數學知識點匯總
在機器學習與深度學習中需要大量使用數學知識,這是給很多初學帶來困難的主要原因之一。此前SIGAI的公眾號已經寫過“學好機器學習需要哪些數學知識”的文章,由于時間倉促,還不夠完整。今天重新整理了機器學習與深度學習中的主要知識點,做到精準覆蓋,內容最小化,以減輕學習的負擔同時又保證學習的效果。這些知識點是筆者長期摸索總結出來的,相信弄懂了這些數學知識,數學將不再成為你學好機器學習和深度學習的障礙。
本文可以配合《機器學習-原理,算法與應用》,清華大學出版社,雷明著一書閱讀。在這本書中對有監督學習,聚類,降維,半監督學習,強化學習的主要算法進行了細致、****的推導和證明。對于所需的數學知識,單獨用一章做了簡潔地介紹。
本文列出的數學知識點已經寫成了《機器學習的數學教程》,以后有機會的話可能會出版,以幫助大家學習。
所需的數學知識
在之前的公眾號文章中已經說過,機器學習和深度學習中所用的數學知識主要來自以下幾門課:
1.高等數學/微積分
2.線性代數與矩陣論
3.概率論與信息論
4.最優化方法
5.圖論/離散數學
除此之外,有些理論和方法可能會用到更深的數學知識,如實變函數,泛函分析,微分幾何,偏微分方程等,但對一般的方法和理論,這些知識不是必須的,因此我們可以忽略它們。對大多數人來說,沒必要為了那些不常見的方法和理論而去學這些復雜的數學知識,這會大幅度的增加學習的成本與難度。
前面所列的5門數學知識中,矩陣論,信息論,最優化方法是國內理工科本科生基本上沒有學過的。圖論除了計算機類的專業之外,一般也不會學。如果想全面而系統的學好機器學習與深度學習,補上這些數學知識是必須的。
微積分
微積分是現代數學的基礎,線性代數,矩陣論,概率論,信息論,最優化方法等數學課程都需要用到微積分的知識。單就機器學習和深度學習來說,更多用到的是微分。積分基本上只在概率論中被使用,概率密度函數,分布函數等概念和計算都要借助于積分來定義或計算。
幾乎所有的機器學習算法在訓練或者預測時都是求解最優化問題,因此需要依賴于微積分來求解函數的極值,而模型中某些函數的選取,也有數學性質上的考量。對于機器學習而言,微積分的主要作用是:
1.求解函數的極值
2.分析函數的性質
下面列出機器學習和深度學習中所需的微積分知識點,顯然,不是課本里所講的所有內容都是需要的,我們只列出所必須的。
極限。極限是高等數學和初等數學的分水嶺,也是微積分這座大廈的基石,是導數、微分、積分等概念的基礎。雖然在機器學習里不直接用到極限的知識,但要理解導數和積分,它是必須的。
上確界與下確界。這一對概念對工科的微積分來說是陌生的,但在機器學習中會經常用到,不要看到論文或書里的sup和inf不知道什么意思。
導數。其重要性眾所周知,求函數的極值需要它,分析函數的性質需要它。典型的如梯度下降法的推導,logistic函數導數的計算。熟練地計算函數的導數是基本功。
Lipschitz連續性。這一概念在工科教材中同樣沒有提及,但對分析算法的性質卻很有用,在GAN,深度學習算法的穩定性、泛化性能分析中都有用武之地。
導數與函數的單調性。某些算法的推導,如神經網絡的激活函數,AdaBoost算法,都需要研究函數的單調性。
導數與函數的極值。這個在機器學習中處于中心地位,大部分優化問題都是連續優化問題,因此可以通過求導數為0的點而求函數的極值,以實現最小化損失函數,最大化似然函數等目標。
導數與函數的凹凸性。在凸優化,Jensen不等式的證明中都有它的應用。
泰勒公式。又一個核心知識點。在優化算法中廣泛使用,從梯度下降法,牛頓法,擬牛頓法,到AdaBoost算法,梯度提升算法,XGBoost的推導都離不開它。
不定積分。積分在機器學習中使用的相對較少,主要用于概率的計算中,它是定積分的基礎。
定積分。包括廣義積分,被用于概率論的計算中。機器學習中很大一類算法是概率型算法,如貝葉斯分類器,概率圖模型,變分推斷等。這些地方都涉及到對概率密度函數進行積分。
變上限積分。分布函數是典型的變上線積分函數,同樣主要用于概率計算中。
牛頓-萊布尼茲公式。在機器學習中很少直接使用,但它是微積分中最重要的公式之一,為定積分的計算提供了依據。
常微分方程。在某些論文中會使用,但一般算法用不到。
偏導數。重要性不用多說,機器學習里絕大部分函數都是多元函數,要求其極值,偏導數是繞不開的。
梯度。決定了多元函數的單調性和極值,梯度下降法的推導離不開它。幾乎所有連續優化算法都需要計算函數的梯度值,且以尋找梯度為0的點作為目標。
高階偏導數。確定函數的極值離不開它,光有梯度值還無法確定函數的極值。
鏈式法則。同樣使用廣泛,各種神經網絡的反向傳播算法都依賴于鏈式法則。
Hessian矩陣。決定了函數的極值和凹凸性,對使用工科教材的同學可能是陌生的。
多元函數的極值判別法則。雖然不直接使用,但對理解最優化方法至關重要。
多元函數的凹凸性判別法則。證明一個問題是凸優化問題是離不開它的。
Jacobian矩陣。工科教材一般沒有介紹這一概念,但和Hessian矩陣一樣,并不難理解,使用它可以簡化多元復合函數的求導公式,在反向傳播算法中廣泛使用。
向量與矩陣求導。常見的一次函數,二次函數的梯度,Hessian矩陣的計算公式要爛熟于心,推導并不復雜。
泰勒公式。理解梯度下降法,牛頓法的優化算法的基石。
多重積分。主要用于概率論中,計算隨機向量的積分,如正態分布。
偏微分方程。在某些理論推導中可能會使用,如變分法中的歐拉-拉格朗日方程。
參考書目:
微積分用經典的同濟7版就可以了,這是國內很多高校工科專業的微積分教材。如果想深入學習,可以看數學分析的教材,這是數學系的微積分。北大張筑生先生所著的數學分析可謂是國內這方面教材的精品。
線性代數與矩陣論
相對于微積分,線性代數似乎用的更多,而且有一部分屬于矩陣論/矩陣分析的范疇,超出了工科線性代數教材的范圍。下面列出線性代數和矩陣論的常用知識點。
向量及其運算。機器學習算法的輸入很多時候是向量,如樣本的特征向量。因此熟練掌握向量以及常用的運算是理解機器學習的基礎。
矩陣及其運算。與向量一樣,是線性代數的核心概念,各種運算,常用矩陣,必須爛熟于心。
行列式。直接使用的少,在概率論,某些模型的推導中偶爾使用。
線性方程組。直接使用的少,但這是線性代數的核心內容。
特征值與特征向量。在機器學習中被廣泛使用,很多問題最后歸結于求解矩陣的特征值和特征向量。如流形學習,譜聚類,線性判別分析,主成分分析等。
廣義特征值。工科線性代數教材一般不提及此概念,但在流形學習,譜聚類等算法中經常用到它。
Rayleigh商。工科教材一般不提及它。在某些算法的推導過程中會用到,如線性判別分析。
矩陣的譜范數與條件數。工科教材一般不提及它。在某些算法的分析中會用到它,它刻畫了矩陣的重要性質。
二次型。很多目標函數是二次函數,因此二次型的地位不言而喻。
Cholesky分解。某些算法的推導中會用到它,工科教材一般不提及它。
特征值分解。對機器學習非常重要,很多問題最后歸結于特征值分解,如主成分分析,線性判別分析等。
奇異值分解。在機器學習中廣泛使用,從正態貝葉斯分類器,到主題模型等,都有它的影子。
參考書目:
線性代數可以看矩陣分析,如果想更全面系統的學習,可以看斯蒂文的這本線性代數。
概率論與信息論
概率論與信息論在機器學習中用得非常多。概率論的知識,一般不超出工科教材的范疇。而信息論是很多同學沒有學過的,不過只要你理解了微積分和概率論,理解這些概念并不是難事。下面列出常用的概率論與信息論知識點。
隨機事件與概率。這是理解隨機變量的基礎,也是概率論中最基本的知識。
條件概率與獨立性。條件概率非常重要,在機器學習中,只要有概率模型的地方,通常離不開它。獨立性在很多地方也被使用,如概率論圖模型。
條件獨立。在概率論圖模型中廣泛使用,一定要理解它。
全概率公式。基礎公式,地位不用多說。
貝葉斯公式。在機器學習的概率型算法中處于靈魂地位,幾乎所有生成模型都要用到它。
離散型隨機變量與連續型隨機變量。重要性不用多說,概率質量函數,概率密度函數,分布函數,一定要熟練掌握。
數學期望。非常重要,好多地方都有它的影子。
方差與標準差。非常重要,刻畫概率分布的重要指標。
Jensen不等式。在很多推導和證明中都要用它,如EM算法,變分推斷。
常用的概率分布,包括均勻分布,正態分布,伯努利分布,二項分布,多項分布,t分布等,在各種機器學習算法中廣泛使用。
隨機向量。多元的隨機變量,在實際中更有用。
協方差。經常使用的一個概念,如主成分分析,多元正態分布中。
參數估計。包括最大似然估計,最大后驗概率估計,貝葉斯估計,核密度估計,一定要弄清楚它們是怎么回事。
隨機算法,包括采樣算法,遺傳算法,蒙特卡洛算法,在機器學習中也經常使用。
信息論中的一些概念,包括熵,交叉熵,KL散度,JS散度,互信息,信息增益,一定要深刻理解這些概念。如果你不理解KL散度,那怎么理解變分推斷和VAE?
參考書目:
概率論國內理工科專業使用最多的是浙大版的教材:
《概率論與數理統計》,國外的書籍推薦《信息論基礎》
最優化方法
前面已經說過,最優化方法是機器學習的靈魂,用于確定模型的參數或預測結果。不幸的是,工科專業一般沒有學過這門課。不過只要你理解了微積分和線性代數,并不難推導出這些算法。下面列出常用的最優化方法知識點:
梯度下降法。最簡單的優化算法,但卻很有用,尤其在深度學習中。
隨機梯度下降法。在深度學習中的重要性婦孺皆知。
最速下降法。梯度下降法的改進型,是理解梯度提升等算法的基礎。
梯度下降法的改進型。如AdaGrad,AdaDelta,Adam等,使用深度學習開源庫的時候經常會看到這些名字。
牛頓法。二階優化算法的典型代表,只是在深度學習中用的少。在logistic回歸等算法的訓練中會用到它。
擬牛頓法。牛頓法的改進,在條件隨機場等模型的訓練中會用到L-BFGS等算法。
坐標下降法。在logistic回歸等模型的訓練中會用到它,不難理解。
凸優化。最優化中的核心概念之一,如果一個問題被證明為凸優化問題,恭喜你,它基本上可以較好的解決。
拉格朗日乘數法。在各種算分的推導中經常使用,如主成分分析,線性判別分析等,如果不熟練掌握它,你將非常艱難。
KKT條件。拉格朗日乘數法擴展到帶不等式約束后的版本,在SVM的推導中將會使用。
拉格朗日對偶。不太好理解的知識點,在SVM的推導中經常用到,不過套公式并不難。
多目標優化。一般很少使用,在多目標NAS中會使用它,如帕累托最優等概念。
變分法。用于求解泛函的極值,在某些理論推導中會用到它,如通過變分法可以證明在均值和方差一定的情況下,正態分布的熵最大。變分推斷中也會用到此概念。如果熟練的掌握了微積分,推導出歐拉-拉格朗日方程并不困難。
參考書目:
最優化方法可以參考下面兩本經典教材:
圖論
機器學習中的某些問題可以用圖論的方法解決,如流形學習,譜聚類。某些算法的表達也可能用到圖論的知識,如深度學習中的計算圖,NAS中的網絡拓撲結構圖。概率圖模型讓很多初學者談虎色變,它是圖論與概率論的完美結合。下面介紹常用的圖論知識點。
圖的基本概念,如頂點,邊,有向圖,無向圖等。
鄰接矩陣與加權度矩陣,圖論中的核心概念,邊一般都帶有權重的。
某些特殊的圖,如二部圖,有向無環圖等,在深度學習中經常會用到他們。
最短路徑問題。經典的Dijkstra算法是每個程序員必須掌握的。
拉普拉斯矩陣和歸一化拉普拉斯矩陣。比較難理解的概念,機器學習中的很多算法,如流形學習,使用圖論的半監督學習,譜聚類都離不開它。理解這個矩陣和它的性質,是理解這些算法的基礎。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。
互感器相關文章:互感器原理
電容式接近開關相關文章:電容式接近開關原理 過電壓保護器相關文章:過電壓保護器原理 電能表相關文章:電能表原理 電機保護器相關文章:電機保護器原理