cywhale
#AI Threads 現在要run一個 #LLM model已經簡化到幾分鐘入手了:1. Dowload Ollama (and install, on Linux: curl -fsSL https://ollama.com/... | sh )Download Ollama on Linux2. Use docker by ollama pull gemma3 如果要指定模型版本,比如 ollama pull gemma3:12b (27b真的慢很多,電腦不夠好不建議~差別:https://ikala.ai/...3. Chat with it by ollama run gemma3:12b 可以開始尬聊了^^下一步來試 #RAG