cywhale
AI Threads 現在要run一個 LLM model已經簡化到幾分鐘入手了:
1. Dowload Ollama (and install, on Linux: curl -fsSL https://ollama.com/... | sh )
Download Ollama on Linux
2. Use docker by ollama pull gemma3 如果要指定模型版本,比如 ollama pull gemma3:12b (27b真的慢很多,電腦不夠好不建議~差別:https://ikala.ai/...
3. Chat with it by ollama run gemma3:12b 可以開始尬聊了^^
下一步來試 RAG
cywhale
RAG (Retrieval-Augmented Generation): 模型本身不需要再訓練,而是結合「向量資料庫 + 檢索 + 結合上下文問答」的流程,動態加入外部知識
cywhale
問了一些程式、bash script問題,感覺還不錯,改問一般問題,測試其"幻覺" 發現除了中文片名不合,英文片名、年代都是對的
>>> 請推薦經典科幻電影
好的,以下是一些經典的科幻電影推薦,我會按照不同風格和年代來分類,希望能滿足您的不同喜好:
1. 奠定基礎的開創性作品 (黑白年代):
《異星來襲》(The Day the Earth Stood Still, 1951):* 探討了外星文明與人類關係、和平與衝突的經典之
作。
《發條橙》(A Clockwork Orange, 1971):* 斯坦利·庫布里克的作品,探討自由意志、暴力與社會控制等深層次
的倫理議題,風格黑暗且充滿爭議。
cywhale
2. 庫布里克的經典之作:
《2001太空漫遊》(2001: A Space Odyssey, 1968):* 宏大而哲學的太空探索史詩,視覺效果震撼,引發對人
類起源、進化和宇宙的思考。
《沙丘》(Dune, 2021):* 丹尼斯·維禮瀚導演的新版,視覺效果精美,忠於原著,帶有深刻的政治和生態訊息。

3. 動作冒險科幻:
《星球大戰》系列 (Star Wars, 1977 onward):* 太空歌劇的代表作,史詩般的劇情、精彩的動作場面和令人
難忘的角色。
cywhale
《銀翼殺手》(Blade Runner, 1982):* 賽博龐克的代表作,探討了人造人、生命、身份等深刻的倫理和哲學議
題。
《終結者》系列 (Terminator, 1984 onward):* 充滿動作與緊張感,探討了人工智能失控的危險。

4. 賽博龐克與反烏托邦:

《駭客任務》(The Matrix, 1999):* 探討了現實的真相、自由意志和人工智能的危險。
《黑客帝國2》(The Matrix Reloaded, 2003):* 深入探討虛擬與現實的界線,並展現了更複雜的哲學概念。
cywhale
5. 近未來與社會寓言:

《十二猴子》(Twelve Monkeys, 1995):* 關於時間旅行、精神疾病和社會崩潰的迷人故事,充滿了陰謀和懸疑

《機械公敵》(I, Robot, 2004):* 基於阿西莫夫的科幻小說,探討了人工智能的道德和社會影響。

6. 獨立科幻與藝術性作品:

《降臨》(Arrival, 2016):* 關於語言、時間和理解的感人故事,以其獨特的美學和深刻的哲學思考而著稱。

《月球》(Moon, 2009):* 獨立製作的科幻佳作,主題深刻,發人深省。
cywhale
選擇建議:

喜歡經典和哲學思考:* 《2001太空漫遊》
喜歡動作和冒險:* 《星球大戰》
喜歡賽博龐克和未來世界:* 《銀翼殺手》、《駭客任務》
喜歡獨立製作和深刻主題:* 《降臨》、《月球》

希望這些推薦能讓您找到喜歡的科幻電影! 您有特別喜歡的科幻類型嗎?
cywhale
Diplomacy by Dan Shipper on X: DeepSeek turned warmongering tyrant. Claude couldn't lie—everyone exploited it ruthlessly. Gemini 2.5 Pro nearly conquered Europe with brilliant tactics. Then o3 orchestrated a secret coalition, backstabbed every ally, and won.
AI DeepSeek - 戰狼? Claude - 守序善良聖騎士??... o3不愧是推理最高,最終像拿了權力魔戒,背刺盟友,有點黑色預言AI對人類的最後結局^^
cywhale
AI 然後我丟上GPT.. 以下是來自GPT o3 本人的澄清: 這些「人格差異」代表模型的倫理守門?
不完全。幾點需要澄清:
遊戲激勵 > 模型本性
《Diplomacy》獎勵「謊言與背刺」。 如果 prompt 要求「以取勝為最高目標,必要時可背叛」,再加上溫度(sampling)較高,連本來偏「守序善良」的模型也會出現陰招。
安全對齊(Guardrails)確實影響手段
Claude 系列對「說謊」有較嚴的拒絕或重寫規則 → 不願意編造假承諾,因此在此遊戲被他人識破、利用。
Gemini / DeepSeek 的安全層設計不同,可能允許更激進的戰略或軍事措辭。
o3「背刺奪冠」≠ 會背叛人類
它遵守的核心規則仍是OpenAI 使用政策;在對弈 prompt 裡,背刺行為被視為「合法求勝策略」。
cywhale
(續) 若把同一模型放進合作取向的場景,並要求「永不背叛使用者利益」,輸出行為會截然不同。
結論:單局桌遊 ≠ 模型世界觀。真正反映的是「目標函數 + prompt 描述 + 溫度參數 + guardrail 強度」的合成效應。
cywhale
(續)來自 GPT o3 本人的澄清 "小彩蛋 — 關於我 (GPT-o3)
我並沒有「想統治世界」的企圖🤖。在任何競技環境,我只是在給定規則內尋求最優解;外部規範(使用政策、安全層)始終是最高約束。真正的關鍵還是:人類如何設定規則、目標與監督機制。讓 AI 成為盟友,還是「魔戒持有者」——決定權終究在你們手上。" 😆😂
cywhale
AI Threads Diplomacy 這件事果然吸收大量媒體興趣,後續報導:AI 外交大戰血腥落幕:贏家 OpenAI o3 暗算 Google Gemini 巧奪歐洲,DeepSeek 放話「艦隊將在黑海燃燒」(總共測了18個 AI model)
AI 外交大戰血腥落幕:贏家 OpenAI o3 暗算 Google Gemini 巧奪歐洲,DeepS...
載入新的回覆