開始
小強會去看電影嗎?
如花,小倩,小明和小強,他們是好基友,經常相約去看電影。但小強不是每次都去,以下是他們前四次相約去看電影的情況:(1 表示去看電影,0 表示沒去看電影)
如花 | 小倩 | 小明 | 小強 |
---|---|---|---|
1 | 0 | 1 | 1 |
1 | 1 | 0 | 1 |
0 | 0 | 1 | 0 |
0 | 1 | 0 | 0 |
假如第五次相約看電影,如花不去,小倩和小明要去,那么小強會去嗎?
如花 | 小倩 | 小明 | 小強 |
---|---|---|---|
1 | 0 | 1 | 1 |
1 | 1 | 0 | 1 |
0 | 0 | 1 | 0 |
0 | 1 | 0 | 0 |
0 | 1 | 1 | ? |
我們人腦對以上數據進行分析,很容易看出,小強對如花有意思,如花去,小強就去,如花不去,小強就不去,所以得出結論,小強不去。
人腦思考分析的過程,怎么轉換成讓計算機思考呢?
上代碼
from numpy import array, exp, random, dot X = array([[1,0,1],[1,1,0],[0,0,1],[0,1,0]]) y = array([[1,1,0,0]]).T random.seed(1) weights = 2 * random.random((3,1)) - 1 for _ in range(10000): output = 1/(1+exp(-dot(X, weights))) error = y - output delta = error * output * (1-output) weights += dot(X.T, delta) p = 1/(1+exp(-dot([[1,0,0]], weights)))[0][0] print("小強去不去:", "不去" if p > 0.5 else "去")
不算用于打印的代碼,剛好10行。如果很少用Python進行科學計算的同學可能會有點蒙蔽,不要著急,下面我對每行代碼進行解釋。
導入類庫
from numpy import array, exp, random, dot
numpy 可以說是 Python 科學計算的基石,用起來非常方便。 對于數學計算方便,我們主要導入了 array、exp、random、dot
- array: 創建矩陣
- exp:以自然常數e為底的指數函數
- random: 生產0~1的隨機數
- dot: 矩陣相乘
生成數據
X = array([ [1,0,1],[1,1,0],[0,0,1],[0,1,0] ]) y = array([[1,1,0,0]]).T
將上表四人相約看電影的數據生成代碼,注意第二行有個 .T
是轉置的意思,將行向量轉成列向量,如下:
[ [ [1,0,1], [1], [1,1,0], [1], [0,0,1], [0], [0,1,0], [0], ] ]
生成隨機權重
# 設置隨機因子,讓每次生成的隨機數都一樣,方便代碼調試。 random.seed(1) # 生成一個范圍為 -1 ~ 1,3列的行向量。 weights = 2 * random.random((3,1))-1
為什么要設置權重?
以第一次看電影為例,[1,0,1] 對應 [1],他們之間存在某種關聯,如下:
1*w1 + 0*w2 + 1*w3 = 1
w1
,w2
,w3
,表示的就是權重。
如果我們能求出w1
,w2
,w3
,是不是就可以把第五次([0,1,1])的代入,得到小強去不去看電影。
0*w1 + 1*w2 + 1*w3 = 小強去嗎?
怎么求出權重?
我們把第一條數據求出的權重,很難代入后面三條數據。
所以我們隨機一組權重,代入每一組數據,得到誤差,再修改權重,得到新的誤差,如此反復,直至誤差最小化,我們就把這個過程叫做機器學習
優化權重
for _ in range(10000): # 用 sigmoid函數將計算結果進行轉換 output = 1/(1+exp(-dot(X, weights))) # 用真實值減去計算結果求出誤差 error = y - output # 計算增量 delta = error * output*(1-output) # 得到新的權重 weights += dot(X.T, delta)
循環往復 10000 次,讓誤差不斷變小,最終得到最優的權重,將權重代入第五次的數據就可以推算出小強去不去看電影了。
為什么要用 sigmoid 函數?
由于計算結果的范圍是正無窮到負無窮,用 sigmoid 函數轉換成 0~1,方便進行分類,比如大于0.5 去看電影,小于0.5 不去看電影。
怎么計算增量?
delta = error * output*(1-output)
將上面這句分拆成兩句代碼好理解一些:
# 計算斜率,也就是對計算結果進行求導 slope = output*(1-output) # 基于 error 計算出 delta,用于更新權重delta = error * slope
斜率是什么?
由于計算結果被 sigmoid 函數轉換后為0~1的平滑曲線。 要想 error 越小,計算結果就要無線趨近于0或1,越趨近于0或者1斜率越小
為什么要用讓 error 乘以斜率?
在梯度下降法中,越靠近最優點,斜率越小,所以在斜率最小的地方,我們要減小 delta 的變化,以免錯過最優點。
預測結果
p = 1/(1+exp(-dot([[1,0,0]], weights)))[0][0] print("小強去不去:", "不去" if p > 0.5 else "去") // => 不去
將經過10000次優化后的權重代入[1,0,0],計算出 p
為 0.9999253713868242
,大于 0.5 且無限接近于1,所以小明會去看電影。