Deva
@davelin
分享
Wed, May 3, 2023 12:29 AM
45
17
Facebook
Ref
AI 教父 Geoffrey Hinton 離開 Google, 原因是他更能自由談論 AI 的風險。這件事紐約時報有詳細的專訪, 大部份的報導也多少參考這則新聞。為了讀原文, 我只好訂了 NY Times。
重點不是 AI 有沒有意識, 甚至重點不一定是 AGI 會不會實現, 而是 AI
「經常從分析大量數據中學到意想不到的行為。」
這裡不是AI 有自主意識要毀了人類, 而是我們無法預測 AI 的行為。尤其是:
「當個人和公司允許 AI 系統不僅生成自己的程式,而且實際上在自己的電腦上運行這些程式時,這就成了一個問題。」
Deva
@davelin
Wed, May 3, 2023 12:30 AM
Hinton 擔心:
「有一天真正的自動武器 —— 那些殺手機器人 —— 變成現實。」
那該怎麼做呢? 這種 AI 競賽基本上無法禁止, 因為 「和核武不同, 沒有辦法知道哪些公司或國家在秘密研究這項技術。」
所以, 「最好的希望是世界領先的科學家們合作研究控制這項技術的方法。」
雖然沒有說, 但也許 Hinton 會投入這樣的工作吧。
圖是midjourney畫的
Deva
@davelin
Wed, May 3, 2023 12:30 AM
Ref
Hinton 特別發文說, 如果看了這篇報導覺得他是因為要自己批評 Google, 完全不是這樣。他就是希望自由談論 AI 的風險, 而 Google 在這方面是很負責的。
Deva
@davelin
Wed, May 3, 2023 12:33 AM
+
@davelin - Ref 我們知道,在人工智能領域里,反向傳播是個最基本的概念。 反向傳播(Back...
載入新的回覆
AI 教父 Geoffrey Hinton 離開 Google, 原因是他更能自由談論 AI 的風險。這件事紐約時報有詳細的專訪, 大部份的報導也多少參考這則新聞。為了讀原文, 我只好訂了 NY Times。
重點不是 AI 有沒有意識, 甚至重點不一定是 AGI 會不會實現, 而是 AI
「經常從分析大量數據中學到意想不到的行為。」
這裡不是AI 有自主意識要毀了人類, 而是我們無法預測 AI 的行為。尤其是:
「當個人和公司允許 AI 系統不僅生成自己的程式,而且實際上在自己的電腦上運行這些程式時,這就成了一個問題。」
「有一天真正的自動武器 —— 那些殺手機器人 —— 變成現實。」
那該怎麼做呢? 這種 AI 競賽基本上無法禁止, 因為 「和核武不同, 沒有辦法知道哪些公司或國家在秘密研究這項技術。」
所以, 「最好的希望是世界領先的科學家們合作研究控制這項技術的方法。」
雖然沒有說, 但也許 Hinton 會投入這樣的工作吧。
圖是midjourney畫的
Hinton 特別發文說, 如果看了這篇報導覺得他是因為要自己批評 Google, 完全不是這樣。他就是希望自由談論 AI 的風險, 而 Google 在這方面是很負責的。