斗斗★前路迷茫中

https://images.plurk.com/1OVdvSCqSwBoG5vichNfQf.png
https://images.plurk.com/3TJ1av1bWzNcLJWiG9sRju.png
https://images.plurk.com/75VKyT4KmoLDlrmZ26JhPI.png
不會明白教授寫什麼,第一張我知道,那應該是講 neuron 的元素,然後呢…要 training 嘛…我看不懂,最後介紹 single layer,那個我看不懂如何 single layer T_T 不是有 weighted sum 還有 activation function,這樣也 single layer 嗎?
斗斗★前路迷茫中
是不是只有1層,就只能 deal with linear problem
有2層,就可以 deal with multiple lines that form shape
有3層,可以 deal with 任何的 shape
多於3層,那就屬於 deep neural network 的世界XDDD
斗斗★前路迷茫中
https://images.plurk.com/2O7IUimp3xnQwuQI5SRbgp.png
哎呀呀,麻省理工的層次太高,為何我看不懂XDD
小龜
這邊不太有寫到怎樣訓練,他只跟你說要用 SGD,但是沒跟你說裡面還有 loss function 和微分

single layer 我覺得是說一次矩陣相乘(或再+一次 bias+一次 activation),這樣算一層
小龜
一二三層那個好像也不完全是這樣,有 activation function 的一層就已經不是線性了;兩層的話有另一種說法叫做「有一層 hidden」,據說理論上那層 hidden 足夠大的話,可以處理很多問題,只是這樣沒效率,總之你可以查查看「one hidden layer is sufficient for the large majority of problems」之類的敘述;至於幾層算 deep 也不好說,比較簡單的聲音任務可能十幾層算深,但影像處理好像十幾層算淺
斗斗★前路迷茫中
hidden layer 有學,可我就是看不懂教授寫的,他的來源就是來自麻省理工,看完都不懂,唯有寄望他報告不問這個吧

那個是的,越多 hidden layer 就越能解決更難的問題,雖然很花時間,但我想加了個 GD 那會不會幫助跑一點

是說他一層層的,有 input layer, hidden layer, output layer,就算沒 hidden layer 那也是至少兩層,input and output,不太明白如何一層/single layer
小龜
可能是 input 自己不算一層
載入新的回覆