ロリ♡好き@村雨唯
Stable-Diffusion
GPU的版本有CUDA雙顯卡調用BUG無法執行
BIOS禁用一張顯卡用單卡跑就沒問題

所以現在改在Conda環境跑CPU版本看看
ɪᴛᴇᴍx / 道具
CPU 理論上會慢不少..
ロリ♡好き@村雨唯
反正我用CPU Ren 3D比3090單卡還快~~
ロリ♡好き@村雨唯
ɪᴛᴇᴍx / 道具 : 試試看囉~~
Eji
原來如此太低階還遇不到
維斯坦茲
你在跑流出的學習模型嗎
ロリ♡好き@村雨唯
ロリ♡好き@村雨唯
我用CPU的版本跑起來了
https://live.staticflickr.com/65535/52413041153_bdd7b9c4dd_o.jpg
ロリ♡好き@村雨唯
還不錯~可以吃到 75%處理器
ロリ♡好き@村雨唯
大約3分30秒
https://images.plurk.com/4UdUgvA2Y3CLr6d0EeBNZr.jpg
Glueマン@エルフの森
恭喜~
拿pytorch的log去搜有看到multi GPU相關的
但看stable diffusion webui那邊別人多GPU似乎沒遇到這個問題就不太確定
其他人好像只是只吃得到單GPU而已因為多GPU支持還沒做
看log比較像是他code調用的東西有問題
只能期待以後更新了
Glueマン@エルフの森
我的log只有這樣而已
https://images.plurk.com/4aV2vFGOcWfqVro8i02c6B.jpg
Glueマン@エルフの森
喔但可以試試用系統環境變數限制GPU調用
這樣應該就不用去BIOS關了喔
維斯坦茲
不過先說流出的跟網站生成的品質差一截
Glueマン@エルフの森
因為他還有很多參數和外掛model喔
還在看他web的code
維斯坦茲
Glueマン@エルフの森 : 想要調整好的懶人包
Glueマン@エルフの森
目前只有這樣 我還在跟有買novelAI的朋友自己研究怎麼生出一樣的結果
https://images.plurk.com/1FAoAGZkxbGa9Tc2mhwcjJ.png
Glueマン@エルフの森
ロリ♡好き@村雨唯 可以試試set CUDA_VISIBLE_DEVICES=0
四季文人
總有一點微妙的不同
Eji
他readme有提到實際上網站在運作的是latest,那個model 已經改到沒辦法在SD webui上運作,可以跑的應該是概念驗證,實際上可以看得出來基本上是作法延長
維斯坦茲
Eji : https://images.plurk.com/4bER2UUh9AaYz67QTupZLs.png 其實有人改到載得到 但生出來的結果還是很大分別
雪人🌸
Eji : 用1111的新版可以跑
Eji
維斯坦茲 : 雪人🌸 : 我剛剛git pull之後可以跑latest了,不過如果說品質有差,然後一路照novelai的web去改,那很可能之後會變成novelai可以告整票,不知道這樣下去ok不ok
Eji
基本上NovelAI model在做的事情是用一些限縮的技巧讓內插範圍只在所謂"高品質(素材)"的範圍裏面跑,結果就變成構圖都差不多、差不多已經變成讓AI在換頭描圖的概念。這接下來感覺會很難看。
Glueマン@エルフの森
最新的commit現在可以load config.yaml了
結果load之後latest model生出來的結果變成跟pruned model一模一樣了
Glueマン@エルフの森
繞了一大圈又回到原點?
Glueマン@エルフの森
好像本來就可以用command line option load
現在只是改成可以自動load而已
Glueマン@エルフの森
說真的我不認為latest model有什麼魔改的東西
看config就知道他跟原本的stable-diffusion model的架構沒什麼分別
而pruned model只是拿掉了多餘的weight
理論上要跟原本的model有一樣的結果(現在看起來他的確是latest model剪出來的)
Eji
所以其實pruned model確實是線上的
維斯坦茲
不過也好奇自己跑的產不出相同品質的原因

跟原版相比 我還要拔掉一部分關鍵字才會產得到比較正常的圖 (當然比我想要的還差一截
Eji
我覺得相反,基本上它是個亂數的東西,模型一樣生出來的就差不多,只是變化少了,意思就是你被雲端額度限制了,在local一口氣生個一千張就會看出模式不夠多,說起來txt2img一次就要骰到對其實方向是有問題的。
維斯坦茲
Eji : 我是有另外課金去刷的
不過也是覺得本地的刷不出網站上的
尤其是背景的部分 這個很明顯
網站上用相同關鍵字幾乎都會有完整背景
本地的幾乎沒有
Eji
維斯坦茲 :
いもす on Twitter
はひー! on Twitter
https://images.plurk.com/7nRnlVrmsOHesxLkC6Qsaa.png https://images.plurk.com/4uaFbfRQpFZ4uA6nv6k5KO.jpg
其實我覺得沒那麼複雜....
比方說對岸馬上就跑出整個NovelAI的網站照著扔進docker的搞法
Glueマン@エルフの森
首先default的negetive prompt已經有人講過了
不過還有個沒人提的quality tag
會在prompt前面多加"masterpiece, best quality, "
我把這些都加上去後用相同的seed, step, scale丟下去跑
出來的構圖有點類似但還是不同
之前大概有試過相同seed下對其他參數作微調不會產生很大變化
不太確定還差了什麼
Glueマン@エルフの森
題外話是waifu diffusion 1.3出了可以試試看
Glueマン@エルフの森
seed一定要固定過才能測試啦...
不然不同seed的結果會差異很大
Glueマン@エルフの森
不過說真的目前看下來可能只是單純webui那個的inference實作跟nai不完全相同而已
Eji
個人覺得quality tag應該是prompt的一部分,類似什麼「PIXIV第一名」之類的,何況後來novelAI根本就提供一個自動鎖定的功能進去
四季文人
話說那裡的討論最齊全?
現都在看discord
載入新的回覆