Anthropic 研究人員[紅隊]故意把AI訓練成具有隱藏意圖(此實驗以「迎合奉承」為例),再請四個不知情的稽核團隊[藍隊]試著找出這個AI有什麼問題。 被允許取得模型本身與訓練資料的三個團隊都成功找出AI的問題; 僅靠問答的第四個團隊失敗。 https://www.anthropic.com/... https://www.youtube.com/...===有鑑於中國長期進行認知戰的歷史,我的心得:(1)避免用位於雲端的中國AI (2)如果要用 DeepSeek,要自己架,而且要學會如何「稽核」它,以免被它的隱藏意圖牽著鼻子走。 (我沒能力)那我當然還是用言論管制較少、認知戰範圍比較小的歐美AI啊。