DaveC
AI黑马Groq颠覆英伟达?LPU性能与成本解读
Nvidia 最大夢魘來臨!AI 聊天機器人執行 Groq LPU 比 GPU 快十倍

Facebook
ref
groq 在成本上並沒有看到顯著的優勢,用了貴貴的 SRAM 取代 HBM,使用上要串更多組數
- 採十四奈搭 MRVL 的設計,刷 LLM 推論速度極快
- HBM 成本約 $10-15/G,SRAM 約是幾十倍以上的價格
- 特化拿來刷 LLM 模型用,但老黃刀一下應該也能辦到
現在去跟老黃比 CP 值的討論很多都忽略了他那高到不行的毛利就是拿來虐爆競爭者用的,真的被挑戰了降個價就真香了
沃夫☆投共就是要槍斃啊
買不到GPU時的替代方案(?)
載入新的回覆