伊軍領袖
什麼鬼,模型沒辦法全部載入VRAM就分了一部分給CPU算,然後跑得比純CPU還慢=_=

輕度使用者需要的是4060TI 128G.......
Raven
但現在就是高階卡才有大容量VRAM…
📛ちゃちゃN🔰
這就是大記憶體的卡被搶翻的原因
伊軍領袖
一切的問題都是老黃的錯
📛ちゃちゃN🔰
用cpu算吧
伊軍領袖
Elesia: 那個SSD不是給顯卡用的,只是跟顯卡共用插槽,只有主機本身讀得到
rîch1ïû
📛ちゃちゃN🔰 : 算到天荒地老....

我已經拿 80 cores 去算了,80B 的 LLaMA2 一秒出一個 token ....
rîch1ïû
這還是推理,如果是建模那不知道要搞到什麼時候去了
伊軍領袖
我是用16core算,13B的LLaMA一秒3個token...:~~
rîch1ïû
伊軍領袖 : 其實 LLaMA 不一定愈多 cores 愈快,好像有個限制....
📛ちゃちゃN🔰
沒辦法。高階運算卡的價格太扯
載入新的回覆