((∑[T𝒰]∏A∈T]A≃1
[笨] 啊啊啊原來 NN 的 backpropagation 可以用導數乘上輸出的差是因為如果用 1/2 sum(label - output)^2 當 loss function 的話 gradient descent 需要的 gradient 算出來就是那樣, 不是什麼用 (f(x+h t)-f(x))/h 近似的意思...
XOO
有神快拜
caasih
Ἐσκός@貓咪大戰車
orz811017
有神快拜RRR
香草香草香
((∑[T𝒰]∏A∈T]A≃1
大家在幹嘛QQ 這就很普通的上課投影片裡講的東西而已
ʕ (• ◡•)ʔ
ʕ (• ◡•)ʔ
我現在只記得疊了兩三層後,跑出有一堆各種被微過的變數的可怕式子
((∑[T𝒰]∏A∈T]A≃1
也不算有吧, 其實就只是把 σ(b + w1x1 + w2x2 + ...) 對所有的變數偏微分過一遍而已 (其中 σ(t) = 1/(1+e^(-t)))
ʕ (• ◡•)ʔ
我同個式子每次微出來都長不一樣 XDD
orz811017
前幾天看李弘毅的ML有上這個 就很多偏微XD
XOO
(ML 完全沒學過)
((∑[T𝒰]∏A∈T]A≃1
ML 有東西還滿漂亮的XD 像是 SVM
香草香草香