潔諾娃/傑諾瓦/Jenova
工作 AI

Linux 裡有套 Ollama 能拿來跑各種 Ollama 支援的 AI 模型,人家想測一下電競筆電的內顯跟獨顯跑起來速度差別如何。

內顯:AMD Ryzen 9 6900HX 內建 Radeon 690M 顯示晶片,512MB 顯示記憶體並共享系統記憶體,在 Linux 下預設共享 32GB
獨顯:Nvidia 3080Ti Mobile 內建 16GB 顯示記憶體。

沒有很準確的測試,人家就只是開寫程式用的編輯器 VSCode,使用內建的 Github Copilot,啟用 Ollama 並且使用前兩天剛推出的 AI Model gpt-oss-20b,將其中一段約六行的程式碼,請 gpt-oss-20b 為我解釋。
潔諾娃/傑諾瓦/Jenova
Nvidia:將近三秒鐘,開始快速輸出解釋,基本上看得懂
AMD:30秒,然後開始慢吞吞地回答。耐著性子給他繼續慢慢產出解釋,發現竟然開始畫說明表格了…沒仔細看內容,因為實在等太久了,就直接切掉了……
潔諾娃/傑諾瓦/Jenova
之前都是使用線上的 Google Gemini 2.5 pro 在開發,現在 gpt-oss-20b 在人家的電腦跑得動而且準確率不低,應該就能把 Google Gemini 的錢給省下來了吧……
Gea-Suan Lin
ollama 的 gpt-oss-20b 應該推出有陣子了...?
潔諾娃/傑諾瓦/Jenova
Gea-Suan Lin : 因為是最近才看到網路新聞在講,可能人家都在看遊戲新聞被演算法陰了 😅
載入新的回覆