(っ´ω`c)小天
@yangsky
Fri, Feb 14, 2025 12:05 PM
換下來的顯卡要怎麼處理呢?
VRAM夠大的話拿來跑本地AI模型似乎是個不錯的想法,於是花了一小時把VEGA56插到NAS上,然後整個下午都在亂抓模型亂問問題
(っ´ω`c)小天
@yangsky
Fri, Feb 14, 2025 12:07 PM
好...好好玩 但是8GB的VRAM有點不夠只能玩7到8B的LLM,不能玩更大的
難怪老黃在消費端不肯把VRAM加大
(っ´ω`c)小天
@yangsky
Fri, Feb 14, 2025 12:18 PM
(っ´ω`c)小天
@yangsky
Fri, Feb 14, 2025 12:46 PM
Fri, Feb 14, 2025 1:17 PM
還是台灣自己tune過的模型好,deepseek都不跟我聊習主席
載入新的回覆
VRAM夠大的話拿來跑本地AI模型似乎是個不錯的想法,於是花了一小時把VEGA56插到NAS上,然後整個下午都在亂抓模型亂問問題
難怪老黃在消費端不肯把VRAM加大