Foxx
https://images.plurk.com/bxGCpO86T8HqptrhLe3Vc.png
Nightshade這工具很趣味, 這算是病毒吧, 不過是由不想讓自己的畫作被AI拿去取樣的人自己手動在圖裡放毒

它的機制就是在圖片中加上人眼無法分辨的雜訊, 但是會搞壞掉AI模型判斷, 讓AI誤以為這圖是其他不同的東西. 如果這種圖片餵得多了, 那AI模型就廢了, 你叫它生狗的圖片它會去生貓的, 生汽車圖片它會去生牛
Foxx
果然科技的問題還是要用科技的解方啊XD
Foxx
載入新的回覆