![](https://avatars.plurk.com/6035277-medium14.gif)
((∑[T𝒰]∏A∈T]A≃1
[笨] 啊啊啊原來 NN 的 backpropagation 可以用導數乘上輸出的差是因為如果用 1/2 sum(label - output)^2 當 loss function 的話 gradient descent 需要的 gradient 算出來就是那樣, 不是什麼用 (f(x+h t)-f(x))/h 近似的意思...
![](https://avatars.plurk.com/6044382-medium2.gif)
XOO
有神快拜
![](https://avatars.plurk.com/3195915-medium62956863.gif)
caasih
![](https://emos.plurk.com/3d0486637d6844f6b3b6118dbd8bdf6b_w48_h48.gif)
![](https://avatars.plurk.com/3542953-medium64816568.gif)
Ἐσκός@貓咪大戰車
![](https://emos.plurk.com/bffa7114c47a9b08a880acb5176f148a_w48_h48.gif)
![](https://avatars.plurk.com/6106101-medium34401805.gif)
orz811017
有神快拜RRR
![](https://avatars.plurk.com/10262517-medium59895969.gif)
香草香草香
![](https://emos.plurk.com/d8e9c28d473298f97b5b4fd34b65f225_w48_h48.gif)
![](https://avatars.plurk.com/6035277-medium14.gif)
((∑[T𝒰]∏A∈T]A≃1
大家在幹嘛QQ 這就很普通的上課投影片裡講的東西而已
![](https://avatars.plurk.com/3421615-medium38.gif)
ʕ (• ◡•)ʔ
![(worship)](https://s.plurk.com/95e69aa508d4bb435706b9db0a610dad.gif)
![](https://avatars.plurk.com/3421615-medium38.gif)
ʕ (• ◡•)ʔ
我現在只記得疊了兩三層後,跑出有一堆各種被微過的變數的可怕式子
![](https://avatars.plurk.com/6035277-medium14.gif)
((∑[T𝒰]∏A∈T]A≃1
也不算有吧, 其實就只是把 σ(b + w1x1 + w2x2 + ...) 對所有的變數偏微分過一遍而已 (其中 σ(t) = 1/(1+e^(-t)))
![](https://avatars.plurk.com/3421615-medium38.gif)
ʕ (• ◡•)ʔ
我同個式子每次微出來都長不一樣 XDD
![](https://emos.plurk.com/9a1a9fb8652d4f0ff2d3eeea378ab727_w48_h48.jpeg)
![](https://avatars.plurk.com/6106101-medium34401805.gif)
orz811017
前幾天看李弘毅的ML有上這個 就很多偏微XD
![](https://avatars.plurk.com/6044382-medium2.gif)
XOO
(ML 完全沒學過)
![](https://avatars.plurk.com/6035277-medium14.gif)
((∑[T𝒰]∏A∈T]A≃1
ML 有東西還滿漂亮的XD 像是 SVM
![](https://avatars.plurk.com/10262517-medium59895969.gif)
香草香草香
![](https://emos.plurk.com/d8e9c28d473298f97b5b4fd34b65f225_w48_h48.gif)