不會明白教授寫什麼,第一張我知道,那應該是講 neuron 的元素,然後呢…要 training 嘛…我看不懂,最後介紹 single layer,那個我看不懂如何 single layer T_T 不是有 weighted sum 還有 activation function,這樣也 single layer 嗎?
一二三層那個好像也不完全是這樣,有 activation function 的一層就已經不是線性了;兩層的話有另一種說法叫做「有一層 hidden」,據說理論上那層 hidden 足夠大的話,可以處理很多問題,只是這樣沒效率,總之你可以查查看「one hidden layer is sufficient for the large majority of problems」之類的敘述;至於幾層算 deep 也不好說,比較簡單的聲音任務可能十幾層算深,但影像處理好像十幾層算淺
不會明白教授寫什麼,第一張我知道,那應該是講 neuron 的元素,然後呢…要 training 嘛…我看不懂,最後介紹 single layer,那個我看不懂如何 single layer T_T 不是有 weighted sum 還有 activation function,這樣也 single layer 嗎?
有2層,就可以 deal with multiple lines that form shape
有3層,可以 deal with 任何的 shape
多於3層,那就屬於 deep neural network 的世界XDDD
哎呀呀,麻省理工的層次太高,為何我看不懂XDD
single layer 我覺得是說一次矩陣相乘(或再+一次 bias+一次 activation),這樣算一層
那個是的,越多 hidden layer 就越能解決更難的問題,雖然很花時間,但我想加了個 GD 那會不會幫助跑一點
是說他一層層的,有 input layer, hidden layer, output layer,就算沒 hidden layer 那也是至少兩層,input and output,不太明白如何一層/single layer