ロリ♡好き@村雨唯
@bwstore
Sat, Oct 8, 2022 11:07 AM
Sat, Oct 8, 2022 11:08 AM
12
Stable-Diffusion
GPU的版本有CUDA雙顯卡調用BUG無法執行
BIOS禁用一張顯卡用單卡跑就沒問題
所以現在改在Conda環境跑CPU版本看看
ɪᴛᴇᴍx / 道具
@Itemx
Sat, Oct 8, 2022 11:08 AM
CPU 理論上會慢不少..
ロリ♡好き@村雨唯
@bwstore
Sat, Oct 8, 2022 11:09 AM
Sat, Oct 8, 2022 11:09 AM
反正我用CPU Ren 3D比3090單卡還快~~
ロリ♡好き@村雨唯
@bwstore
Sat, Oct 8, 2022 11:09 AM
ɪᴛᴇᴍx / 道具
: 試試看囉~~
Eji
@ejiwarp
Sat, Oct 8, 2022 11:14 AM
原來如此太低階還遇不到
維斯坦茲
@JLChnToZ
Sat, Oct 8, 2022 11:21 AM
你在跑流出的學習模型嗎
ロリ♡好き@村雨唯
@bwstore
Sat, Oct 8, 2022 11:26 AM
Eji
:
維斯坦茲
:
ɪᴛᴇᴍx / 道具
: 是的~~XD
ロリ♡好き@村雨唯
@bwstore
Sat, Oct 8, 2022 11:27 AM
我用CPU的版本跑起來了
ロリ♡好き@村雨唯
@bwstore
Sat, Oct 8, 2022 11:27 AM
還不錯~可以吃到 75%處理器
ロリ♡好き@村雨唯
@bwstore
Sat, Oct 8, 2022 11:29 AM
大約3分30秒
Glueマン@エルフの森
@a4745350
Sat, Oct 8, 2022 11:54 AM
恭喜~
拿pytorch的log去搜有看到multi GPU相關的
但看stable diffusion webui那邊別人多GPU似乎沒遇到這個問題就不太確定
其他人好像只是只吃得到單GPU而已因為多GPU支持還沒做
看log比較像是他code調用的東西有問題
只能期待以後更新了
Glueマン@エルフの森
@a4745350
Sat, Oct 8, 2022 11:57 AM
How to use multiple gpu · Issue #644 · AUTOMATIC1111...
Glueマン@エルフの森
@a4745350
Sat, Oct 8, 2022 12:00 PM
我的log只有這樣而已
Glueマン@エルフの森
@a4745350
Sat, Oct 8, 2022 12:02 PM
喔但可以試試用系統環境變數限制GPU調用
這樣應該就不用去BIOS關了喔
維斯坦茲
@JLChnToZ
Sat, Oct 8, 2022 12:03 PM
不過先說流出的跟網站生成的品質差一截
Glueマン@エルフの森
@a4745350
Sat, Oct 8, 2022 12:05 PM
因為他還有很多參數和外掛model喔
還在看他web的code
維斯坦茲
@JLChnToZ
Sat, Oct 8, 2022 12:08 PM
Glueマン@エルフの森
:
想要調整好的懶人包
Glueマン@エルフの森
@a4745350
Sat, Oct 8, 2022 12:11 PM
目前只有這樣 我還在跟有買novelAI的朋友自己研究怎麼生出一樣的結果
Glueマン@エルフの森
@a4745350
Sat, Oct 8, 2022 12:18 PM
ロリ♡好き@村雨唯
可以試試set CUDA_VISIBLE_DEVICES=0
四季文人
@nosubject
Sat, Oct 8, 2022 1:05 PM
總有一點微妙的不同
Eji
@ejiwarp
Sat, Oct 8, 2022 1:19 PM
他readme有提到實際上網站在運作的是latest,那個model 已經改到沒辦法在SD webui上運作,可以跑的應該是概念驗證,實際上可以看得出來基本上是作法延長
維斯坦茲
@JLChnToZ
Sat, Oct 8, 2022 1:34 PM
Eji
:
其實有人改到載得到 但生出來的結果還是很大分別
雪人🌸
@jacksnowman
Sat, Oct 8, 2022 1:46 PM
Eji
:
用1111的新版可以跑
Eji
@ejiwarp
Sat, Oct 8, 2022 2:06 PM
Sat, Oct 8, 2022 2:06 PM
維斯坦茲
:
雪人🌸
: 我剛剛git pull之後可以跑latest了,不過如果說品質有差,然後一路照novelai的web去改,那很可能之後會變成novelai可以告整票,不知道這樣下去ok不ok
Eji
@ejiwarp
Sat, Oct 8, 2022 2:17 PM
Sat, Oct 8, 2022 2:19 PM
基本上NovelAI model在做的事情是用一些限縮的技巧讓內插範圍只在所謂"高品質(素材)"的範圍裏面跑,結果就變成構圖都差不多、差不多已經變成讓AI在換頭描圖的概念。這接下來感覺會很難看。
Glueマン@エルフの森
@a4745350
Sun, Oct 9, 2022 5:37 PM
最新的commit現在可以load config.yaml了
結果load之後latest model生出來的結果變成跟pruned model一模一樣了
Glueマン@エルフの森
@a4745350
Sun, Oct 9, 2022 5:38 PM
繞了一大圈又回到原點?
Glueマン@エルフの森
@a4745350
Sun, Oct 9, 2022 5:58 PM
好像本來就可以用command line option load
現在只是改成可以自動load而已
Glueマン@エルフの森
@a4745350
Sun, Oct 9, 2022 7:25 PM
說真的我不認為latest model有什麼魔改的東西
看config就知道他跟原本的stable-diffusion model的架構沒什麼分別
而pruned model只是拿掉了多餘的weight
理論上要跟原本的model有一樣的結果(現在看起來他的確是latest model剪出來的)
Eji
@ejiwarp
Mon, Oct 10, 2022 3:31 AM
所以其實pruned model確實是線上的
維斯坦茲
@JLChnToZ
Mon, Oct 10, 2022 3:35 AM
不過也好奇自己跑的產不出相同品質的原因
跟原版相比 我還要拔掉一部分關鍵字才會產得到比較正常的圖 (當然比我想要的還差一截
Eji
@ejiwarp
Mon, Oct 10, 2022 3:44 AM
我覺得相反,基本上它是個亂數的東西,模型一樣生出來的就差不多,只是變化少了,意思就是你被雲端額度限制了,在local一口氣生個一千張就會看出模式不夠多,說起來txt2img一次就要骰到對其實方向是有問題的。
維斯坦茲
@JLChnToZ
Mon, Oct 10, 2022 3:49 AM
Eji
: 我是有另外課金去刷的
不過也是覺得本地的刷不出網站上的
尤其是背景的部分 這個很明顯
網站上用相同關鍵字幾乎都會有完整背景
本地的幾乎沒有
Eji
@ejiwarp
Mon, Oct 10, 2022 4:01 AM
Mon, Oct 10, 2022 4:51 AM
維斯坦茲
:
いもす on Twitter
はひー! on Twitter
其實我覺得沒那麼複雜....
比方說對岸馬上就跑出整個NovelAI的網站照著扔進docker的搞法
Glueマン@エルフの森
@a4745350
Mon, Oct 10, 2022 7:45 AM
首先default的negetive prompt已經有人講過了
不過還有個沒人提的quality tag
會在prompt前面多加"masterpiece, best quality, "
我把這些都加上去後用相同的seed, step, scale丟下去跑
出來的構圖有點類似但還是不同
之前大概有試過相同seed下對其他參數作微調不會產生很大變化
不太確定還差了什麼
Glueマン@エルフの森
@a4745350
Mon, Oct 10, 2022 7:47 AM
題外話是waifu diffusion 1.3出了可以試試看
Glueマン@エルフの森
@a4745350
Mon, Oct 10, 2022 7:51 AM
seed一定要固定過才能測試啦...
不然不同seed的結果會差異很大
Glueマン@エルフの森
@a4745350
Mon, Oct 10, 2022 8:07 AM
不過說真的目前看下來可能只是單純webui那個的inference實作跟nai不完全相同而已
Eji
@ejiwarp
Mon, Oct 10, 2022 9:08 AM
Mon, Oct 10, 2022 9:08 AM
個人覺得quality tag應該是prompt的一部分,類似什麼「PIXIV第一名」之類的,何況後來novelAI根本就提供一個自動鎖定的功能進去
四季文人
@nosubject
Mon, Oct 10, 2022 9:12 AM
話說那裡的討論最齊全?
現都在看discord
載入新的回覆
GPU的版本有CUDA雙顯卡調用BUG無法執行
BIOS禁用一張顯卡用單卡跑就沒問題
所以現在改在Conda環境跑CPU版本看看
拿pytorch的log去搜有看到multi GPU相關的
但看stable diffusion webui那邊別人多GPU似乎沒遇到這個問題就不太確定
其他人好像只是只吃得到單GPU而已因為多GPU支持還沒做
看log比較像是他code調用的東西有問題
只能期待以後更新了
這樣應該就不用去BIOS關了喔
還在看他web的code
想要調整好的懶人包用1111的新版可以跑結果load之後latest model生出來的結果變成跟pruned model一模一樣了
現在只是改成可以自動load而已
看config就知道他跟原本的stable-diffusion model的架構沒什麼分別
而pruned model只是拿掉了多餘的weight
理論上要跟原本的model有一樣的結果(現在看起來他的確是latest model剪出來的)
跟原版相比 我還要拔掉一部分關鍵字才會產得到比較正常的圖 (當然比我想要的還差一截
不過也是覺得本地的刷不出網站上的
尤其是背景的部分 這個很明顯
網站上用相同關鍵字幾乎都會有完整背景
本地的幾乎沒有
其實我覺得沒那麼複雜....
比方說對岸馬上就跑出整個NovelAI的網站照著扔進docker的搞法
不過還有個沒人提的quality tag
會在prompt前面多加"masterpiece, best quality, "
我把這些都加上去後用相同的seed, step, scale丟下去跑
出來的構圖有點類似但還是不同
之前大概有試過相同seed下對其他參數作微調不會產生很大變化
不太確定還差了什麼
不然不同seed的結果會差異很大
現都在看discord