斗斗★宅在家一直廢
https://images.plurk.com/5xLORtpKEY0vnGxcZZZjxa.jpg https://images.plurk.com/64tnKZN4bZIgyI64VqSJaT.jpg
一邊讀書一邊喝洒,我果然不喜歡威士忌,這個太烈(廢話),他形容有 spice 的韻味,是的,不只嗆也香辣,不是很酒精的純辣,是真的有點特別的辣
小龜
這支幾度啊?雖然威士忌好像一般是 40 度上下
斗斗★宅在家一直廢
45%的,分了4口喝完
斗斗★宅在家一直廢
然後很開心 了解了 feature scaling,原來 data normalisation 是這樣的,教授有講過,也算是我唯幾在課堂上明白的,就是處理大量 data 時要 compress data

原來這才知道對 gradient descent 有好處,教授只講一句 data 太多 compress 了才好處理,也不是有錯
小龜
normalisation,果然是英國教育XDDD

Difference between normalization and normalisation
小龜
我習慣用 normalization
小龜
不過他跟 compress 應該是兩回事才對?
斗斗★宅在家一直廢
我也不想 -sation,我一直學都是 -zation 不過我原文引用就一定不會改字,但 rephrase 後用自己文字寫會改成英式的,我喜歡美式英語

居然是兩回事,我看維基(欸你)看似一樣,其實我有想 feature scaling 會不會是 normalisation 的其中一個…嗯…要素…方法(?)
Feature scaling - Wikipedia
教授是直說大量 data 上 million 上 billion 的,那要 compress 去 small size,會讓 machine 好點處理,feature scaling 的原意也是這樣吧,莫不我理解過頭,把近義就湊不起 我就是怕才維基確認一下
小龜
"Feature scaling ... In data processing, it is also known as data normalization"
他只是改一改資料的值,讓範圍變相似,比方說身高跟體重的值的範圍不一樣,就都平移伸縮到標準常態分佈
小龜
compress 應該是要減少資料,比方說 PCA/LDA 降維,或者 kmeans clustering
斗斗★宅在家一直廢
dimension reduction 是有講過,不過這課程好像他沒細講,比如說數據上有各種貨幣,如果全部統一為美金,這樣算不算降維?所以教授他又亂講,我知道他英文不太好,但差極也該有個限度

feature scaling 是不是一定針對 GD?所以他那個做法類似把數據 SD 化
小龜
我覺得貨幣可以算,因為你本來需要多用一個維度表示哪一國的,現在不用了

是不是針對 GD 我不熟,機率統計我一向沒什麼概念,做事都效果論
載入新的回覆