Hacker News Active + 100 繁體中文
過去依賴單一大模型來涵蓋所有任務的方法,儘管曾取得令人矚目的突破,卻容易在多步驟推理、長期規劃和事實驗證等層面上出現缺陷。以 Mixture-of-Experts(MoE,專家混合架構)為例,這種設計將神經網路拆分為多個專門化的子網路,並透過閘道機制將輸入動態分流到最適合的「專家」,使得運算更加高效且具備容錯性。現今,像 HuggingGPT 與 AutoGen 這類多代理系統正好印證了 Minsky 當初所預見的,透過多個小而專業的單元協同合作,能夠解決單一模型難以克服的問題。Ryan He (@ryanhe)