上次發的 Midjourney 教程《奶奶看了都會的 Midjourney 入門教程!!》文章受到了很多朋友們的認可和支持,大家討論很熱烈,其中有不少疑問就是 Midjourney 的圖片怎么精準的控制,或者是不改變某個物體的情況下更換背景等等,實在是太多問題了。
不過確實,Midjourney 生成的圖片很難精準的控制,隨機性很高,需要大量的跑圖,不過沒關系,在社群小伙伴們的強烈建議下,我在這篇文章中為大家分享 SD 的教程。
SD 效果圖展示:
動漫插畫,就說這效果強不強吧...
是不是迫不及待想試一試了呢,那我們開始吧,手把手教學,外婆真的看了都會的教程,開始進入教學!!
Stable Diffusion 是一款基于人工智能技術開發的繪畫軟件,它可以幫助藝術家和設計師快速創建高品質的數字藝術作品。該軟件使用了一種稱為 GAN(生成對抗網絡)的深度學習模型,該模型可以學習并模仿藝術家的創作風格,從而生成類似的藝術作品。
Stable Diffusion 具有直觀的用戶界面,可以讓用戶輕松地調整繪畫參數并實時預覽結果。用戶可以選擇不同的畫布、畫筆和顏色,還可以通過調整圖像的風格、紋理和顏色等參數來創建各種不同的藝術作品。
除此之外,Stable Diffusion 還提供了一些高級功能,例如批量處理、自動矯正和自動化調整等,可以幫助用戶更加高效地完成大量的繪畫任務。
總之,Stable Diffusion 是一款功能強大的 AI 繪畫軟件,它比現在市面上主流的 AI 繪畫軟件 Midjourney 更加的強大,可以說 SD 是所有 AI 繪畫的鼻祖級存在,同樣,更強大代表著它的上手難度及配置要求也更高。那么說到這里,我們就來看看這兩款軟件的一個對比吧
1. 配置要求:
需要使用 N 卡(NVIDIA 顯卡),顯卡的顯存至少需要 4GB 以上顯存才能在本地運行。最低配置需要 4GB 顯存,基本配置 6GB 顯存,推薦配置 12GB 顯存或者以上。
Stable Diffusion Ai 繪畫主要是運行顯卡,算力越強,出圖越快。顯存越大,所設置圖片的分辨率越高)
“推薦使用 RTX4090 顯卡哦” -----來自一個 3080 顯卡玩家
還有一點的就是硬盤空間要大,SD 出圖主要依賴模型,網上下載的模型資源一般都很大(一個模型在 2G 以上)批量跑圖也是很占內存的,這邊建議 60GB 以上的硬盤空間。
2. 網絡要求:大家都懂哈,咱也不說。
3. 操作系統:需要是 Win10 或 Win11。
滿足以上條件基本上就可以用 SD 跑圖啦。
SD 的安裝我們就不要整的很復雜了,直接用大佬制作的一鍵安裝/啟動包就行,我們把時間用在刀刃上。
自己手動安裝需要上 Github 下載文件,還要下載 Ptthon 等工具,一般第一次手動安裝會出現各種奇怪的報錯,總之很復雜,我之前自己安裝過,真就花了一上午都還沒安裝好。所以我不建議也不教大家手動安裝了。(如果你要硬上,可以在網上看看別的使用教程)
上黑科技!!!咱直接去使用@秋葉 aaaki 大佬的免費啟動器和安裝包。
我們下載這兩個文件,下載鏈接在這篇文章頂部:
注意:下載的文件一定要放在空間比較大的盤里。
來看下具體操作:
1. 安裝一下這個“啟動器運行依賴”。
2. 然后把這兩個文件復制一下,我們需要粘貼到“webui:文件夾中
3. 粘貼替換目標中的文件。粘貼的位置看我的文件夾路徑。
4. 這里我重新走一遍打開流程,以防大家退出去了不知道從哪里進。我們打開下載的文件夾,然后進入到“novelai-webui”文件夾
5. 打開“novelai-webui-aki-v3”文件夾。
6. 然后下拉下拉...找到這個啟動器,雙擊就完事了,這個就是我們剛剛粘貼替換的文件。
7. 然后就打開啦,一鍵啟動就好了。
1. 大模型的切換
首先是這個界面左上角,在這里可以切換你所安裝的模型。
這里我先推薦一下我常用的模型網站:C 站: https://civitai.com/
然后我們在 C 站上下載一些模型:
接下來就是安裝了,很簡單,把下載的模型放到這個路徑文件夾中。然后刷新 web UI 界面(就是 SD 操作界面)
2. 模型的 VAE(Sd 的 VAE)
VAE 的全稱是 Variational Auto-Encoder,翻譯過來是變分自動編碼器,本質上是一種訓練模型,Stable Diffusion 里的 VAE 主要是模型作者將訓練好的模型“解壓”的解碼工具。
這里可以切換 VAE。一般情況下我們就選擇第一個自動就行了。
在 C 站下載模型,在下載頁面會有文件顯示,如圖。
VAE 的安裝路徑看我這里,把下載的文件復制粘貼,然后把 web UI 界面刷新一下(就是 SD 操作界面)
言川總結:
- 總的來說就是你在 C 站上下載的模型有些內置就有 VAE 的屬性(不需要下載 VAE 文件),有些沒有內置下載的時候我們就把 VAE 文件下載。(VAE 文件一般大小在幾百兆左右)
- VAE 的作用就是沒有加載 VAE 的圖片是灰灰的,加載之后就是會產生一個潤色的效果,色彩更加豐富。
3. 功能選項
這里我挑選幾個重要的功能講解下。
文生圖,這里與 Midjourney 不同的是,SD 有一個反向關鍵詞(意思是不要圖片出現什么),文生圖的關鍵詞格式與 Midjourney 基本一致,不知道的朋友可以去看我的往期文章:
下面這塊參數就是設置圖片的一些基本參數,分辨率、尺寸等等,具體參數見下文。
圖生圖,這個也很好理解,放參考圖然后輸入提示詞,與其他 AI 繪畫軟件一致。
圖片信息,意思是你用 SD 畫的圖,放在這里來,右邊會顯示這個圖片的一些參數,包括關鍵詞。
然后你可以選擇右下角的一些功能,比如“文生圖”。
模型合并,這個功能很厲害,后面我出一篇關于這個功能的教學,大致就是把多個模型混合起來。
訓練,這個就是訓練自己的模型,新手用的比較少,后面可用作工作流的部署。(這個才是我推薦的核心哦)
設置,然后就是設置,大家自己去研究下就好了。
擴展,這個就是跟插件擴展相關的了,后面再講。
4. 提示詞和反向提示詞
言川提示:
提示詞內輸入的東西就是你想要畫的東西,反向提示詞內輸入的就是你不想要畫的東西。
提示框內只能輸入英文,所有符號都要使用英文半角,詞語之間使用半角逗號隔開。
一般來說越靠前的詞匯權重就會越高,比如我這張圖的提示詞:
The personification of the Halloween holiday in the form of a cute girl with short hair and a villain's smile, (((cute girl)))cute hats, cute cheeks, unreal engine, highly detailed, artgerm digital illustration, woo tooth, studio ghibli, deviantart, sharp focus, artstation, by Alexei Vinogradov bakery, sweets, emerald eyes。
萬圣節假期的擬人化形式是一個留著短發和惡棍笑容的可愛女孩,可愛的帽子,可愛的臉頰,虛幻的引擎,高度詳細,藝術種子數字插圖,woo tooth,吉卜力工作室,deviantart,銳利的焦點,artstation,由 Alexei Vinogradov 面包店,糖果,綠寶石般的眼睛。
第一句關鍵詞詞組:萬圣節假期的擬人化形式是一個留著短發和惡棍笑容的可愛女孩。那生成的圖片主體畫面就會是萬圣節短發可愛笑容女孩
這里可能有用過 Midjourney 的小伙伴們就有疑問了,(((cute girl)))是什么意思,為啥有這么多括號,我來為大家解答下,這個是權重調節,類似 Midjourney 的 ::
① 最直接的權重調節就是調整詞語順序,越靠前權重越大,越靠后權重越低,上面說過。
② 可以通過下面的語法來對關鍵詞設置權重,一般權重設置在 0.5~2 之間,可以通過選中詞匯,按 ctrl+↑↓來快速調節權重,每次調節為0.1,也可以直接輸入。
③ 加英文輸入的(),一個括號代表這組關鍵詞的權重是 1.1,兩個括號是 1.1*1.1 的權重,不要加太多了哈。可以結合第二點固定權重,比如(((cute girl:1.2))),那這個關鍵詞的權重就很高了。
5. 功能按鈕
我們來介紹下右邊這幾個功能,生成就不說了,輸入關鍵詞生成就跑圖了。
第一按鈕的意思是讀取你上一張圖的所有參數信息(包括關鍵詞),比如你畫一張圖之后,關掉了軟件,再次啟動點擊這個就會把參數復制進來。
第二個按鈕就是刪除了,清空關鍵詞;這里可以和第一個按鈕結合用哦
第三個按鈕就是模型選擇管理
這個按鈕就是點擊就會出現這些功能,你安裝的模型和 Lora 都可以在這邊調整。
言川小知識:這里可以把你生成的圖片添加到模型的封面上,方便你后面看這個模型的效果,看我怎么做:
找到這個模型的名稱,然后我這里是跑出來一張圖片的,點擊這個按鈕(lora 一樣)
最終效果:
后面兩個就是一個提示詞模板功能:
我們可以先點最后一個按鈕,把現在的關鍵詞創建一下,取個名字
然后在模板風格這里選中我們剛剛創建的模板(可以多選)
選中之后按一下第四個按鈕,我們創建的關鍵詞就被填入進去了,這塊收工!
6. 采樣步數
一般來說大部分時候采樣部署只需要保持在 20~30 之間即可,更低的采樣部署可能會導致圖片沒有計算完全,更高的采樣步數的細節收益也并不高,只有非常微弱的證據表明高步數可以小概率修復肢體錯誤,所以只有想要出一張窮盡細節可能的圖的時候才會使用更高的步數。(加大這個會導致出圖變慢)
7. 采樣方法
Stable diffusion webui 是 Stable diffusion 的 GUI 是將 stable diffusion 實現可視化的圖像用戶操作界面,它本身還集成了很多其它有用的擴展腳本。
SD 的采樣方法有很多,大家有興趣了解的可以去知乎看看@劉登宇的一篇文章《stable diffusion webui 如何工作以及采樣方法的對比》。這里我們只介紹兩個種常用的。
這里的采用方式有很多,但是我們常用的就那幾個,我們可以去設置里面把不需要用到的關掉,不展示在這個界面中。然后點擊右邊的重啟 UI 就好了。
8. 高清修復和圖片尺寸參數
前面兩個做個簡單的介紹,面部修復對寫實的風格有點效果,可平鋪就不要用了,生成的圖片很奇怪,可以自己試試。
我們說說高清修復,高清修復的意思是把基礎生成的圖片,按照你選擇放大的倍率放大到指定分辨率之后再重新繪制圖片,受到你重復幅度調節的數值影響。
寬度、高度就是圖片的長寬比,很容易理解,生成批次和數量就是幾批,一批幾張圖,配置好的可以直接拉滿,增加效率哦。
提示詞相關性:圖像與你的提示的匹配程度。增加這個值將導致圖像更接近你的提示(根據模型),但它也在一定程度上降低了圖像質量。可以用更多的采樣步驟來抵消。
默認未選中高清修復是這樣的,當前圖片的參數。
9. 隨機種子(seed)
這個功能與 Midjourney 的 Seed 功能一樣。
隨機數的起點。保持這個值不變,可以多次生成相同(或幾乎相同,如果啟用了 xformers)的圖像。沒有什么種子天生就比其他的好,但如果你只是稍微改變你的輸入參數,以前產生好結果的種子很可能仍然會產生好結果。
輸入不同的種子,生成的圖片不一樣,seed 值一樣,那生成的圖片也是一樣。
差異隨機種子,需要勾選這個按鈕:
這個功能是固定一個種子,然后調整差異強度來生成圖片,因為是固定的 seed 值,所以生成的圖風格都是類似的。
直接看圖吧。
這邊的幾個功能都很簡單,大家嘗試下就能理解了,那基礎操作我們就先講到這里,大家趕緊玩起來吧!!
這篇入門教學就先講到這里,后續還有插件、部署模型等教程,大家先消化一下這篇文章的內容。
如果覺得對你有幫助,3 連(點贊、收藏、分享)一下吧,大家的支持才是我的動力,祝大家生活愉快
歡迎添加作者微信交流:
復制本文鏈接 文章為作者獨立觀點不代表優設網立場,未經允許不得轉載。
發評論!每天贏獎品
點擊 登錄 后,在評論區留言,系統會隨機派送獎品
2012年成立至今,是國內備受歡迎的設計師平臺,提供獎品贊助 聯系我們
標志設計標準教程
已累計誕生 729 位幸運星
發表評論 為下方 43 條評論點贊,解鎖好運彩蛋
↓ 下方為您推薦了一些精彩有趣的文章熱評 ↓