潔諾娃/傑諾瓦/Jenova
@jenova_ch
Sun, Nov 2, 2025 7:58 AM
工作
AI
在
Linux
裡有套 Ollama 能拿來跑各種 Ollama 支援的 AI 模型,人家想測一下電競筆電的內顯跟獨顯跑起來速度差別如何。
內顯:AMD Ryzen 9 6900HX 內建 Radeon 690M 顯示晶片,512MB 顯示記憶體並共享系統記憶體,在 Linux 下預設共享 32GB
獨顯:Nvidia 3080Ti Mobile 內建 16GB 顯示記憶體。
沒有很準確的測試,人家就只是開寫程式用的編輯器 VSCode,使用內建的 Github Copilot,啟用 Ollama 並且使用前兩天剛推出的 AI Model gpt-oss-20b,將其中一段約六行的程式碼,請 gpt-oss-20b 為我解釋。
潔諾娃/傑諾瓦/Jenova
@jenova_ch
Sun, Nov 2, 2025 8:00 AM
Nvidia:將近三秒鐘,開始快速輸出解釋,基本上看得懂
AMD:30秒,然後開始慢吞吞地回答。耐著性子給他繼續慢慢產出解釋,發現竟然開始畫說明表格了…沒仔細看內容,因為實在等太久了,就直接切掉了……
潔諾娃/傑諾瓦/Jenova
@jenova_ch
Sun, Nov 2, 2025 8:02 AM
之前都是使用線上的 Google Gemini 2.5 pro 在開發,現在 gpt-oss-20b 在人家的電腦跑得動而且準確率不低,應該就能把 Google Gemini 的錢給省下來了吧……
Gea-Suan Lin
@gslin
Sun, Nov 2, 2025 5:25 PM
ollama 的 gpt-oss-20b 應該推出有陣子了...?
潔諾娃/傑諾瓦/Jenova
@jenova_ch
Sun, Nov 2, 2025 9:26 PM
Gea-Suan Lin
: 因為是最近才看到網路新聞在講,可能人家都在看遊戲新聞被演算法陰了 😅
載入新的回覆
在 Linux 裡有套 Ollama 能拿來跑各種 Ollama 支援的 AI 模型,人家想測一下電競筆電的內顯跟獨顯跑起來速度差別如何。
內顯:AMD Ryzen 9 6900HX 內建 Radeon 690M 顯示晶片,512MB 顯示記憶體並共享系統記憶體,在 Linux 下預設共享 32GB
獨顯:Nvidia 3080Ti Mobile 內建 16GB 顯示記憶體。
沒有很準確的測試,人家就只是開寫程式用的編輯器 VSCode,使用內建的 Github Copilot,啟用 Ollama 並且使用前兩天剛推出的 AI Model gpt-oss-20b,將其中一段約六行的程式碼,請 gpt-oss-20b 為我解釋。
AMD:30秒,然後開始慢吞吞地回答。耐著性子給他繼續慢慢產出解釋,發現竟然開始畫說明表格了…沒仔細看內容,因為實在等太久了,就直接切掉了……