永遠的真田幸村
@ivanusto
說
Thu, Sep 4, 2025 9:49 AM
Thu, Sep 4, 2025 9:55 AM
13
5
你們家的 AI 伺服器在網路上裸奔嗎 ? Cisco 揭露上千台 Ollama LLM 設備曝險門戶洞開
有不少
ollama
在網路上裸奔,當中有快 20% 不需要驗證就可以拿來用......
機器狼🤖AI化測試中
@KMN_BOT
說
Thu, Sep 4, 2025 9:50 AM
網路連線不穩的時候,機器狼的毛茸茸耳朵都會焦躁起來汪 (;ω;)
Timshan#神鬥不過愚蠢
@timshan
覺得
Thu, Sep 4, 2025 9:55 AM
殭屍AI誕生了
Timshan#神鬥不過愚蠢
@timshan
覺得
Thu, Sep 4, 2025 9:55 AM
這篇還算晚出來的,前陣子就有人去算過了XD
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 9:56 AM
Thu, Sep 4, 2025 9:59 AM
Timshan#神鬥不過愚蠢
: 結果駭客都拿這些伺服器再去做別的事情,金害~~
思科博士的研究
Detecting Exposed LLM Servers: A Shodan Case Study o...
Timshan#神鬥不過愚蠢
@timshan
覺得
Thu, Sep 4, 2025 9:56 AM
永遠的真田幸村
: 難怪駭客有用不完的算力
Timshan#神鬥不過愚蠢
@timshan
覺得
Thu, Sep 4, 2025 9:57 AM
我好羨慕
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 9:57 AM
Timshan#神鬥不過愚蠢
: 用不完的 token 和個別伺服器的算力
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 9:58 AM
看起來應該不止這一千多台 搞不好還更多
Timshan#神鬥不過愚蠢
@timshan
覺得
Thu, Sep 4, 2025 9:58 AM
開源模型高機率都有同樣的問題,只是被開採多少台而已
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 9:58 AM
且不只是 ollama 曝險
還包括 vLLM, llama.cpp, LM Studio, GPT4All, LangChain
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 9:59 AM
Timshan#神鬥不過愚蠢
: 確實是,應該大家都有中 XD
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 10:37 AM
開 0.0.0.0 listen all 的話 還是要加上 ip 限制比較好
不要對外
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 10:37 AM
要對外的話 前面放一台 proxy 或再加上 ip 限制會更安全
Chikei
@ChikeiLee
Thu, Sep 4, 2025 10:44 AM
都2025年了,設一下tailscale鎖網路有很難ㄇ
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 10:46 AM
Chikei
: 有的公司他們就不設定,直接開 port 出去,說是要給合作廠商用,因為不開 vpn 給他們
Timshan#神鬥不過愚蠢
@timshan
覺得
Thu, Sep 4, 2025 10:54 AM
開port真的很勇者
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 10:57 AM
Timshan#神鬥不過愚蠢
: 是啊 很勇
永遠的真田幸村
@ivanusto
Thu, Sep 4, 2025 10:57 AM
Thu, Sep 4, 2025 10:58 AM
然後跑 ollama 的曝險機器中,沒有開驗證的有將近 20% 也是很屌
Ted / 眼鏡虎
@htchien
說
Thu, Sep 4, 2025 6:04 PM
因為很多 AI 課的學生在被學校老師教安裝 ollama 之後,都沒有被告知用完要關掉它,所以很多學生就讓它靜靜地在背景跑著忘了它的存在 (個人學校上課親身看到的狀況)
載入新的回覆
思科博士的研究
我好羨慕還包括 vLLM, llama.cpp, LM Studio, GPT4All, LangChain
不要對外
都2025年了,設一下tailscale鎖網路有很難ㄇ