(っ´ω`c)小天
換下來的顯卡要怎麼處理呢?
VRAM夠大的話拿來跑本地AI模型似乎是個不錯的想法,於是花了一小時把VEGA56插到NAS上,然後整個下午都在亂抓模型亂問問題
(っ´ω`c)小天
好...好好玩 但是8GB的VRAM有點不夠只能玩7到8B的LLM,不能玩更大的
難怪老黃在消費端不肯把VRAM加大
(っ´ω`c)小天
https://images.plurk.com/3vObzrTu9ozD4OaMPwpQaz.png
(っ´ω`c)小天
還是台灣自己tune過的模型好,deepseek都不跟我聊習主席
載入新的回覆