如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

隨著人工智能的逐漸發展,越來越多的 AI 工具也一窩蜂的涌現出來。

在眾多的 AI 利器當中 Midjourney(簡稱 MJ)和 Stable diffusion(簡稱 SD)兩款軟件在圖片的效果呈現上表現尤為突出,雖然 MJ 能夠通過描述關鍵詞來對圖像進行調整,但總覺得跟腦海里設想的那張圖還差一點意思,不能完全的符合心里預期。

迫于這個原因我們將經歷投入到 SD 的學習當中,在學習的過程中發現 SD 的操作界面對設計師來說比較友好,操作界面更類似于一款軟件的操作界面,感覺是在學習一門技術(可能是總用繪圖軟件做圖留下的后遺癥)。

在實際操作 SD 這款軟件時有兩點是強于 MJ 的:1.它可以精準控制畫面的構圖及布局。2.它也可以定制畫面的輸出風格。在工作上能將所設想的草圖通過 control net 插件進行百分之百的還原,可以說大大的提高了出圖質量及數量。

本次分享將結合平時工作中,應用到 SD 軟件進行出圖的實操經驗,通過對 SD 的運用輸出行業場景圖來給大家做一些示范。在日常的工作中,為了保證視覺構圖還有畫面風格的一致性,有意去搭建了屬于趕集行業特征的運營場景素材庫,目的是為了讓設計師能靈活調用,隨做隨取,節省時間提高效率。

更多AI實戰案例:

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

在開始實操之前,先來說下 SD 的工作流程:1.前期需要在腦子里構想一個場景圖,并借用繪圖軟件勾勒出大概的草圖輪廓線。2.通過 SEG 圖表找到對應材質的色值(SEG 色表大家可以網上搜索自行下載),實現對畫面中擺放物體的材質進行精準調節。3.將文生圖得到的圖片轉到圖生圖中借助 control net 插件中 tile_resample 模型對圖片里的細節進行處理于此同時使用腳本中的 UItemate SD upscale 模型將已得到的圖片進行人為放大(這樣做是為了在圖生圖的放大過程中同時修補畫面細節)

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

一、線稿生成圖

好的廢話不多說,咱們開始演示:

第一步輸入正向關鍵詞:CBD 辦公場景,寬敞明亮,有格調,高清攝影,廣告級修圖,8K 高清,CBD office scene,Bright and spacious,There is style,HD photography,Ad-level retouching,8K HD,

反向關鍵詞:

NSFW,nude,naked,porn,(worst quality, low quality:1.4),deformed iris,deformed pupils,(deformed,distorteddisfigured:1.3)cropped,out of frame,

poorlydrawn,badanatomy,wronganatomy,extralimb,missinglimb,floatinglimbs,cdonedface(mutatedhandsandfingers:1.4),

disconnectedlimbs,extralegs,fusedfingers,toomanyfingers,longneck,mutation,mutated,ugly,

disgusting.amputation,blurry,jpegartifacts,watermark,watermarked,text,Signature,sketch,

輸入關鍵詞的同時將腦子里的想法通過繪圖軟件繪制成線稿圖(這個線稿的布局及外形決定了出圖的結構及布局),將繪制好的草圖上傳至 control net 插件里選擇 scribble 模型(實際操作界面如下)。

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

生成效果如下:

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

二、SEG色值生成

第二步:根據畫面需要對場景內的物體進行材質更換(這一步需要配合關鍵詞即畫面中出現的材質需要在關鍵詞中也對應提及,關鍵詞的重要程度要用()強調,同樣也借助 control net 插件里選擇 seg 模型,配合第一步的操作雙開 control net 模型,SEG 權重的大小數值,決定最終呈現的效果。

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

生成效果如下:

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

三、放大圖片調整細節

第三步:選擇一張自己心儀的圖片然后轉到圖生圖模式,將圖片結合 control net 插件中的 tile_resample 進行細節豐富,同時使用腳本中的 UItemate SD upscale 模型將其放大至自己想要的圖片大小。

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

好啦,現在你已經得到了一張定制化的場景圖片了,是不是還是蠻精準的,按照我們上述的操作路徑,我們分別對餐飲場景、銷售辦公場景、美容美發場景進行了批量生成,效果圖片如下。

生成餐飲場景效果如下:

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

生成美業場景效果如下:

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

生成銷售場景效果如下:

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

總結:AI 自我的學習能力非常強大,每一刻都在迭代,可能身處這個時代的我們能做的就是不斷的擁抱變化,學習如何去駕馭 AI,學會用 AI 為工作提效,希望能從不斷的學習探索中找到新突破。

歡迎關注「58UXD」的微信公眾號:

如何用Stable diffusion三步搞定場景定制化?來看58的經驗總結!

收藏 110
點贊 41

復制本文鏈接 文章為作者獨立觀點不代表優設網立場,未經允許不得轉載。