DaveC
Facebook
Ref
為了保護模擬中的Man in the loop程序,測試團隊教導AI,跟它說:「不要打自己的操作員,打的話就減分!」

AI也了解這狀況,不能打會阻礙自己殺敵的操作員,所以在之後的模擬就改打通訊塔,切斷操作員與自己之間的資料鏈連結(模擬作戰中),令操作員不能發送指令阻止自己發動攻擊。

https://images.plurk.com/7IQu1iL0O3q3OfbBsWGGVw.jpg
DaveC
想像一下你是一隻比特犬,你想咬人,不過你的主人不想你見人便咬,所以用狗帶控制著你。你明白主人不給你咬人,所以反咬主人,擺脫控制。他之後也教你不能咬他,不然沒飯吃,所以你改咬斷狗帶,再度擺脫他的控制。

HAL 9000:這任務對我來說太重要了,不能容許你危害它。
天網:人類你想拔掉我的電源?不行!

-DDG54
DaveC
Yahoo奇摩
Ref
或許很多人警告的 AI 發展真的可能會造成危險的結果,英國皇家航空學會研究報告發現最近的 AI 無人機發展測試出現了意想不到的結果,就是 AI 選擇攻擊了操作者,因為 AI 發現「人類會選擇錯誤目標」,有沒有一天它們將會發現,人類本身就是個徹底的錯誤?
DaveC
這個結果雖然是模擬演練,但一點都不好笑,上校認為要是無法有效與他們「溝通」,他們很快會造成更多問題,並認為武器系統最終須要靠人為決定與操作。AI 開發在當初天才史蒂芬霍金還在世時就強力反對,因為他認為 AI 將發展成不受人類控制並超脫人類的存在,到那時候人類就將碰到有史以來最大的威脅,這在許多有關 AI 人工智慧的小說、電影如《機械公敵》早就提及類似概念,當 AI 發展足夠完整,他們很快就會發現,人類才是最大的威脅。
贊成AI有選舉權
人類或宇宙事實上是高等智慧生物的模擬玩具
載入新的回覆