![](https://www.plurk.com/static/default_medium.gif)
hatershater
最近狂搞production deep learning model的感想是,這算model真的有夠sensitive,有時候一個edge case出來根本不知道為什麼,所以非常難tune。大概就像是AI界的類比電路吧。上線了以後來是挫得半死,怕model會有奇怪的behavior。不過還好鄉民還在吵作弊的事。
![](https://www.plurk.com/static/default_medium.gif)
hatershater
害我有點不想買self driving car package了,neural network狂tune一通出來的產品,像我一樣有quarterly target一定得上線這種,我的產品還好,大家玩玩就好,但跟人命相關的我覺得sensitivity還是讓人有點挫啊。
![](https://avatars.plurk.com/6652932-medium12.gif)
Clare
出事比率遠小於human error就值得了吧
![](https://www.plurk.com/static/default_medium.gif)
hatershater
比較麻煩的是,human error通常還有個原因,比如說手忙腳亂之類的,機器有時候input data差一點點而已,但behavior算出來差很多,但說真的也沒辦法debug