ɪᴛᴇᴍx / 道具
[AI] 定期看一下 Stable Diffusion 家用版跟模型的進化... 下面有生成圖
ɪᴛᴇᴍx / 道具
(1girl), belt, belt_buckle, (dark grey eyes), (blue purple hair), breasts, brown_belt, brown_legwear, buckle, choker, closed_mouth, collarbone, (glasses), hair_ornament, (hair_ribbon), hairclip, long_hair, ponytail, looking_at_viewer, pantyhose, pink_footwear, pleated_skirt, ribbon, shirt, shoes, short_sleeves, smile, solo, kawaii_girl
ɪᴛᴇᴍx / 道具
Negative prompt: jpeg artifact,extra finger,(extra leg), extra head, weired leg,extra feet
Steps: 30, Sampler: DPM++ 2M, CFG scale: 8, Seed: 3189892616, Size: 768x512, Model hash: 1d10a19f06
ɪᴛᴇᴍx / 道具
https://images.plurk.com/2LcjY0TxHyrpPUJIkKDM5g.png

Anything 4.5 產生的風格我覺得還不錯...
ɪᴛᴇᴍx / 道具
最近還有 OpenNiji 滿多人用的,但產生的畫風會比較圓潤..w
ɪᴛᴇᴍx / 道具
https://images.plurk.com/7xEEDSlrQrauqSpVTwNW0r.png
還是一樣參考OK但放大就gg XD
s3a
可以試試7thanime, AOM2
s3a
ɪᴛᴇᴍx / 道具
明天來導入看看
ɪᴛᴇᴍx / 道具
某種意義上突然變成有點能用了...
ɪᴛᴇᴍx / 道具
github 上有在討論不同 GPU, 使用完全相同參數包括 SEED 的前提下,會不能重建結果的問題...w
ɪᴛᴇᴍx / 道具
自行訓練 Lora ..應該可以拿來當角色或者風格的基準
Stable Diffusion web UI x Kohya’s GUI:訓練 LoRA 模型教學,快...
ɪᴛᴇᴍx / 道具
而 LoRA 訓練小模型有特定的公式,每張圖最少訓練 100 步,總步數不低於 1500 步,也就是說建議訓練圖片大於 15 張,若小於則用這個公式計算每張步數:「1500/圖片張數=每張訓練步數」,舉例來說,我訓練的圖片共 10 張,那我就是每張訓練 150 步即可,只要依照這個公式去訓練產生的小模型效果就會很好,若不好就是要去檢查訓練圖片是否合適,圖片品質很重要(建議都用 R-ESRGAN 4x+ Anime6B 去跑一次去除雜訊及優化),尺寸統一都是 1:1,而我就設為基本的 512 x 512 px 效果就很好了!
ɪᴛᴇᴍx / 道具
Lora實測,需要的樣本數不多是個優勢,而且效果也還算自然

不過樣本過少時,動作跟角度在未指定的狀況就會很接近
ɪᴛᴇᴍx / 道具
對齁,可以拿小憐當樣本看看
ɪᴛᴇᴍx / 道具
https://images.plurk.com/4CzRJLkgLERUcvVpp9m6M9.png

嗯.....
ɪᴛᴇᴍx / 道具
https://images.plurk.com/75GINk6qSA1cCoPoG5P8xd.png

轉身終於記得頭髮應該在身後,也就是畫面前面了...
載入新的回覆