Rename model.ckpt inside animefull-final-pruned from NAI to final-pruned.ckpt Place final-pruned ckpt and animevae. pt from the root in stableckpt in webui\models\Stable-diffusion Rename animevae. pt to final-pruned.vae. pt Make a stable-diffusion-webui\models\hypernetworks folder and place all the .pts from stableckpt\modules\modules from NAI in there
這麼剛好我剛架完本機執行用的 Stable Diffusion,感覺上是可以套用的耶 ...
我打算用自己的圖來跑看能跑出啥
這是原本的樣子
這是img2img 拿去mask後 Inpant 加一點描述的樣子
這是產生後的樣子
嚴格說只能當 concept ,完程度還不高
如果是 img2img 通常是拿圖片參考構圖產生新東西...
實際上的屍體大概有五六十張以上,所以 AI 運算也還算是種進化,準確一點的子打字而已..w;
先去抓 Anaconda
conda create -n diffusion python=3.10
他會先幫你準備好一個環境
然後
conda activate diffusion
conda install git
git clone https://github.com/AUTOMATIC1111/stable-diffusion-we...
停在這就沒動靜了
考慮網路速度五到十分鐘內吧?
models\Stable-diffusion 放 .ckpt
如果有抓放大用的外掛 .pth 放 models\ESRGAN
如果有抓校正臉的GFPGANv1.4.pth 放 models\GFPGANv1.4.pth
這邊有提供一個範例,作者做了兔田的 TI, 這樣打 usada pekora 就很容易做出想要的樣子
另外順便問問你的 CKPT 用了哪個?
按了就沒了
我是3090
RTX3090配置CUDA、CuDnn、PyTorch、TensorFlow版本问题_weixin_45...
理論上 python 用的 cuda 不太需要額外裝 nV 的 SDK
小屁孩,不夠美式
你在 Diffussion 那邊 輸入看看 python --version 有沒有反應
下載後先右鍵打開,編輯
如果你裝的時候都沒改的話,等號後面的 D:\Anaconda 刪掉
而且 AI用完後,X關掉那個python的視窗就好
啥都沒發生~XD
那應該是 python 那邊有報錯所以失敗了,那得手動執行 python launch. py 看看了w
3090 那麼高階的東西理論上應該要很能跑才對
conda activate diffusion
cd 到 stable-diffusion
python launch. py
不過昨天村雨有貼個錯誤訊息說沒有cuda裝置或者cuda在忙,這滿奇怪的
有在懷疑會不會是win11或用administrator跑的鍋
但 win 11 就難說... XD
最基本還是要先看 torch 驅動 3090 的狀況
舉例來說SYSTEM跟administrator就不是同個帳號應該會有各自的環境變數
不過對於windows怎麼去處理這個我也不是很清楚就是了
可能還是都在cmd或ps裡面下會比較好測一點
用bat會多一些不確定要素
像是他網站到底是丟什麼參數去跑模型的
或許就能在現在用這套上跑出完全一模一樣的結果
這組關鍵字似乎會被加進negative prompt裡去提升效果
Pony 我總覺得是彩虹小馬而不是馬尾(髮型)…
Negative Prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
要在BIOS裡面先禁用一張就可以
這個時機點非常敏感我覺得大家都看得出這是誰了...