機器學習「基礎筆記」

  引言:

機器學習是人工智慧(AI)的分支,著重於訓練電腦從資料中學習,並根據經驗改進,而不是按照明確的程式碼運行作業。在機器學習中會訓練演算法尋找大型資料集的模式和關聯性,並根據該分析做出最佳決策和預測。機器學習應用程式會隨著使用不斷改善,存取的資料越多、準確度越高。機器學習廣泛應用於我們的家中、購物車、娛樂媒體,以及醫療保健業。

最早在1950年喺Alan圖靈的論文《計算機與智能》中 提起機械能思考嗎? 就開始了人工智能嘅新領域, 當時他提出了一個理論, 了解機械能是否能思考要通過一個The Imitation Game 去判斷, 後來又叫圖靈測試, 只要有一個發問人C向兩個房間(機械人和正常人類)同時連續發問, 並判斷那一邊為人類, 如果最後測試結果超過30%認定機械人為人類, 那麼這個機械人就通過圖靈測試。

最特別在1997年的IBM 深藍大戰Garry Kasparov 的象棋大戰中,IBM Deep Blue 獲得最後嘅勝利展開了人工智能第一次的高峰, 但當時Deep Blue實際上只是窮舉所有的可能性並選擇最優解。 所以在有無數可能的現實生活中, 這種窮舉的方法並不能套用在現實生活中。 所以引伸了機械學習的到來。。。

  機械學習:

首先為咗減少記憶嘅作用,人們也很擅長把物件進行分類, 所以機械學習就由分類問題開始引伸。在清晰講解機械學習原理時先說明什麼是梯度下降

梯度下降法:

由21世紀最著名嘅YouTuber李永樂老師中的預測房價例子可知。

1. 首先當我們要預測房價我們可以有價格和面積製作坐標軸並得知房價會因面積大小影響, 所以他們會根據什麼關係?而最簡單的就是線性擬合關係即公式 y = w x + b (當中w 為斜率,b為截距)

 


但是大家都知道直線冇可能經過所有的點, 而且他們之間有一個距離 delta y, 即使條直線並沒有達到每一個點, 但如果我說這個預測是精準的,因為我們求出了他這條函數基於所有點來說誤差最少, 而這個我們叫它損失函數 MSE

 而問題在於(y - yi)中 yi = (wx + b) 因為我們要找到合適的參數W和b 當然我們可以使用 最小二乘法來計算 (簡單了解最小二乘法) 但是當你的參數非常之多的時候, 你並不能使用最小二乘法計算, 而為了更好的優化這個計算方法人們便想出了梯度下降法。

因為當W值越偏離最低點時, 他的斜率必然越大, 所以首先我們要求出斜率公式為: 偏J / 偏W0

新的Wn+1就會 = Wn - Y 偏J/偏W

最後求出斜率≈零Wn+1 ≈ Wn 就是最低點

當然以上只是最簡單的梯度下降法, 當然我們是用來解決生活的問題時還需要了解其它的算法, 之後我將會講解一些例子, 並帶出不同算法用於解決不同問題。

 

。。。。。不定期再更新










Comments