【Stable Diffusion WebUI】イチからインストールした詳細な画面ログや補足情報

画像生成AI
記事内に自動で広告が表示されます

Stable Diffusion WebUI」のインストール方法や使い方のサイトはいろいろありますが、個人的には「悠々ログ」が一番わかりやすくいろんな情報がまとまっていると思います。

自分は上記のサイトを見てインストールしましたが、画面イメージが少ないため他にもいろんなサイトで確認しながら進めることになり結構時間がかかりました。

参考のため、上記のサイトに沿って自分が Windows 10 にインストールした時の画面イメージや補足を載せておきます。Windows では無く、MacLinux にインストールしたい場合は他の記事を参考にしてみてください。

自分が最初にインストールしたのは2023年7月頃で Stable Diffusion WebUI v1.4.1 でしたが、2023年11月現在の最新版 v1.6.0 で同じ方法でインストールできることを確認しながら記事を書きました。

環境

自分の環境

以下が Stable Diffusion をインストールした自分の環境です。

 部品  製品 
CPUIntel Core i5-6500
GPUGeForce GTX1660Ti (6GB) 
メモリ32GB
HDD1TB SSD
OSWindows 10 Pro (64bit)

以下はこの記事でインストールしたファイルの版数です。

 ファイル  製品 
Stable Diffusion WebUI v1.6.0
pythonPython 3.10.6 
gitgit version 2.41.0.windows.3 
モデルデータSD1.5 ベース 

Stable Diffusion WebUI を動かす環境条件

CPU

CPU については特に要件は無いです。

パソコンの購入を考えている場合は画像生成AI以外にやりたいこと(ゲームやVRなど)でCPUを選択すると良いと思います。

グラフィックボードだけ凄くてCPUが弱いとバランスが悪くて本来の性能が発揮できないこともあるので、CPUグラフィックボードのバランスを以下で確認してみると参考になります。

GPU(グラフィックボード)

メインで動くのはGPUなので一番大事なのはGPUですが、GeForce でチューニングされているそうなので、パソコンの購入を考えているようでしたら Radeon より GeForceグラフィックボードにしておいた方が良いです。

Stable Diffusion WebUI を見るとVRAM4GBグラフィックボードからサポートはしてますが、いろんなグラフィックボードで実測している以下のサイトを見ると現実的な最低限のスペックは GeForce 6GB(実売約3万円~)と考えた方が良さそうです。

4GB video card support (also reports of 2GB working)

GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI

推奨は一般的に 12GB(実売約4万円~)のようですが、最近では高画質な SDXL 1.0 のモデルデータが出て来て 16GB が推奨となってきてるため、余裕があれば 16GB(実売約7万円~)以上にしておいた方が良いです。

ちなみに 16GB より上は 24GB(実売約18万円~)になります。GPUの性能よりVRAMの容量の方が重要なようなので、中古でVRAMが大きいグラフィックボードにするのが良いかも。

参考にVRAM容量ごとに価格重視の GeForceグラフィックボードを記載しておきます。
もしゲームでも使う場合は新しい物はVRAMが少なくても性能が良かったり機能が多いので、性能観点で選んだ方が良いです。

GPU無しでも動かすことはできますが、自分の環境の場合、GPUで20秒くらいでできるものがGPU無しだと6分以上かかるようでした。

自分のCPUはかなり古いので最近のCPUで性能のいいものであれば1分程度で作成できそうでしょうか。お試しで動かす程度は充分使えますが、実際に画像生成する時はスクリプト(テキスト)を少しづつ変えながら何度も生成するので、GPU無しはあまり現実的ではないです。

メモリ

メモリは16GB以上が推奨とあります。メモリは多い方が何かと良いのでできれば32GB以上は積んでおいた方が良いです。

The program needs 16gb of regular RAM to run smoothly. If you have 8gb RAM, consider making an 8gb page file/swap file, or use the --lowram option (if you have more gpu vram than ram).

Troubleshooting · AUTOMATIC1111/stable-diffusion-webui Wiki · GitHub

HDD

HDDについても要件は特に無いです。

自分の環境でパフォーマンスモニターを見ると、HDDにアクセスする起動時やモデルデータ(2GB以上)を切り替えた時に読み込むくらいで、生成中はアクセスは無く、生成ファイル(1024x10241.5MB程度)を格納する時くらいでした。

当然、SSD の方が良いですが2GB以上のモデルデータを大量に置くと容量の少ない SSD は辛いかもしれないので、OS を入れてる SSD が小さくてデータ用に HDD がある場合、HDD 配下を利用するのでも良いと思います。

OS

Stable Diffusion WebUI を見ると「Automatic Installation on Windows」「Automatic Installation on Linux」「Installation on Apple Silicon」の記載があり、WindowsLinuxMac で動作するようです。Apple Silicon は詳しくないですが、Mac M1 以降の CPU を差してるようです。

この記事は Windows 10(64bit)へのインストールを記載してます。

32bit の場合、PythonGit 32bit 版でダウンロードすれば動くと思います。

インストールの概要

Stable Diffusion WebUIStable Diffusion というテキストから画像を生成するコマンドベースのAIプログラムWebブラウザで簡単に利用できるようにしたツールのようです。

Stable DiffusionWebUIPython で動作するので Python のインストールが必要なのと、ソースが github で公開されているのでソースをダウンロードする git というツールのインストールが必要です。git を使って ④ Stable Diffusion WebUI をダウンロードして起動すると、初回起動時に自動で環境構築がされる仕組みで、次からは WebUI が短時間で起動するようになります。

なお、Stable Diffusion では学習したモデルデータが必要で、SD1.xSD2.xSDXL1.x などの大きなベースモデルがあり、それをベースに追加で学習させたモデルデータが多数公開されています。

この記事ではモデルデータの種類が多く、低スペックのPCでも利用できる SD1.5モデルデータをダウンロードして使ってます。

インストールの流れは以下になります。

  1. Python のインストール
  2. git のインストール
  3. モデルデータをダウンロード
  4. Stable Diffusion WebUI のインストール

① Python のインストール

Python は人気のプログラム言語です。Stable DiffusionPython で動いてるためインストールが必要となっています。

Python はバージョンが変わると動かない時があるとのことなので、Python 3.10.6 指定でインストールが必要となってます。

ブラウザで「Python 3.10.6」にアクセス

下の方のリンクからダウンロード、自分のPCは Win10 64bit なので上記を選択

ダウンロードして実行

windows のパスにPythonを追加する「Add Python 3.10 to PATH」のチェックをして「Install Now」を実施

インストール中

インストール完了、「Disable path length limit」(※) が表示されたら選択して MAX_PATH の 260文字制限を解除

「Close」でウィンドウを閉じる

コマンドプロンプトを開いて、python コマンドを打つと動作することが確認できた

Disable path length limit」は windows のパスの最大長の260文字の制限を解除するオプション。windows 10 以上はシステムの設定で解除が可能。windows 10 より前のバージョンや、既に制限解除済の場合は表示されません。

コマンドプロンプトは、Windows の検索で「コマンド」と打つと表示されます。
コマンドプロンプトタイトルバー右クリックして「プロパティ」を選ぶと設定画面が表示されるので、フォントや画面の色を変えると見やすくなります。自分の設定は以下です。
【フォント】サイズ:16、フォント:BIZ UDゴシック
【画面の色】画面の文字:242,242,242、画面の背景:96,96,96

② Git のインストール

Stable Diffusion WebUI」は GitHub で公開されているため、GitHub からソースをダウンロードするツールの Git を先にインストールします。

Git は最新版を入れれば問題ないです。

途中にテキストエディタを指定するところがあり、自分は SAKURA Editor を使ってるため、その設定にしてます。項目はとても多いですが、他はデフォルトでインストールしました。

Git のページでダウンロードして実行
Portable でも良いと思うがインストール版にした

そのまま「Next

そのまま「Next

そのまま「Next

そのまま「Next

Git のデフォルトのエディタに Vim を使う」となってたので変更した

選択肢の中に無いので「Select other editor」を選んで「Browse

Sakura Editor のインストールフォルダから「sakura.exe」を選択して「開く

Test Custom Editor」を選択して、正しくエディタが開くか確認

Sakura Editor が起動、「Please modify this text, 」とあるので編集

適当に編集して「保存」してエディタを終了

テストが成功したと結果表示

そのまま「Next

そのまま「Next

インストール完了、「Finish」で閉じる

コマンドプロンプトgit コマンドを打つと動作することが確認できた

③ モデルデータのダウンロード

WebUIをインストールする際、事前に何か1つモデルデータを配置しておく必要があります。
特に用意せずにインストールしても、sd1.5(基本モデル)が自動ダウンロードされるため不具合はありませんが、ぶっちゃけこれを使うことはないので事前に入手しておきましょう。

【v1.5.1対応】ローカル環境に「Stable Diffusion WebUI」を導入する方法を詳しく紹介!【AUTOMATIC1111】 | 悠々ログ (yuuyuublog.org)

自分は Stable Diffusion画像生成AI も全く初めてだったのでモデルデータが何なのかわからず、最初に上記の文章を読んだ時は良く理解できませんでした。

簡単に言うと、Stable Diffusion に書かせたい画像のモデルということでしょうか。

Stable Diffusion は AI なので最初にいろんな画像を学習させる必要がありますが、学習させる元データにより生成される画像が変わってきます。学習させるのは大変なので、いろんなパタンで学習させたモデルデータが公開されており、使うモデルデータによってアニメ調であったり写真っぽかったりアジア系だったりと変わります

ちなみに実際に画像生成を始めるとわかりますが、いくつものモデルデータを切り替えながら気に入った画像になるように調整していくので、結局、モデルデータはいっぱい入れることになります

モデルデータダウンロードサイトHugging FaceCIVITAI で、モデルデータは xxx.safetensors という2GB以上あるファイルです。

自分は CIVITAI を主に使用してて現在は20個近く入れてますが、モデルデータは後で追加できるのでインストール時にはとりあえず何か1つダウンロードしていれば大丈夫です。
また、ダウンロードしたファイルはインストール時に移動するので、それまではダウンロードフォルダに置いたままで大丈夫です。

最初にモデルデータを何も入れずに Stable Diffusion をインストールすると「sd1.5(基本モデル)」が自動ダウンロードされてしまう。でも、sd1.5 は使うことが無くなり無駄になるので、sd1.5 がダウンロードされないように最初から何かモデルデータを入れておいた方が良い。また、モデルデータは後で追加できるので適当に何か1つ入れておけばいいということでした。

Hugging Face

いまいちサイトの使い方を理解してないですが、モデル一覧を見ても画像のサンプルが無いため選びづらいです。自分の場合はモデルデータの紹介記事などにリンクがあれば落とすという感じです。

「悠々ブログ」の「おすすめのモデルデータまとめ」の記事にリンクが貼られてた「Chilled Remix」をダウンロードしてみます。

Chilled Remix、ライセンスは CreativeML Open RAIL-M、「Files and versions」を選択

2つのモデルデータがありますが、自分は chilled_remix_v2.safetensors を右の矢印ボタンでダウンロードしました

元のページの下の方にライセンスについて記載があり、このモデルは CreativeML Open RAIL-M の通りで商用利用も可能とのこと

モデルデータライセンスは必ず確認しましょう。CreativeML Open RAIL-M については検索すると説明されてる記事が出て来るので一度確認しておきましょう。

CIVITAI

CIVITAIモデルデータの一覧がサンプル画像で表示されるのでわかりやすいです。
ダウンロードだけならアカウント作成 Sign in は不要です。

ここでは一番 LIKE が多い「majicMIX realistic」をダウンロードしてみます。

モデル一覧で「BASE MODEL」を選択、「ALL TIME」や「MOST LIKED」でフィルタ・ソート、モデルデータを選択

Base modelSD1.5矢印ボタンを押すとファイルが表示されるので選択してダウンロード

下の方を見るとラインセンスは CreativeML Open RAIL-M、右の禁止マーククリックすると説明が表示される、ブラウザで翻訳するとこのモデルは販売やマージは禁止とわかる

④ Stable Diffusion WebUI のインストール

インストールと言っても、PythonGit のように Windowsインストーラーが動くわけでは無く、好きな場所に任意のフォルダを作成して、そのフォルダ配下でWebUIダウンロードして設定して起動すると必要なファイルが自動でダウンロードされるという感じです。

そのフォルダ配下にモデルデータや生成した画像も格納されるので、1つのフォルダ内で完結しており、アンインストールはそのフォルダを削除するだけです。

WebUI の設定を変えたものを試したかったり、違うバージョンWebUIインストールしたかったりすると、新しいフォルダを作って複数共存も可能です。(容量はその分必要ですが)

作業用フォルダ作成、設定ファイル編集

自分は「【v1.6.0対応】ローカル環境に「Stable Diffusion WebUI」を導入する方法を詳しく紹介!【AUTOMATIC1111】 | 悠々ログ (yuuyuublog.org)」と同様にデスクトップ上に「sd_work」を作成しました。

デスクトップに「sd_workフォルダを作成し、ダブルクリックエクスプローラーを起動してフォルダーパスコピー

コマンドプロンプトを起動、cdコピーしていたパスペーストして移動、git コマンドで github から stable-diffusion-webuiダウンロード(clone)

エクスプローラーモデル格納用のフォルダを開いて、ダウンロードしていたモデルデータ(xxx.safetensors)を格納

stable-diffusion-webui フォルダ直下の webui-user.batテキストエディタで開く
編集」でも「SAKURA Editor で開く」でも他のエディタでも良いです

使用しているグラフィックボードでオプションを調整します、詳細は「悠々ブログの記事」参照、自分は【GTX16xx専用】の内容を記載

起動(初回、インストール実施)

stable-diffusion-webui フォルダ配下の「webui-user.bat」をダブルクリックするとコマンドプロンプトが起動し、初回起動時はインストールが行われます。

自分の環境では8分程度で完了し、ブラウザが起動しました。ブラウザが起動すればインストールは完了です。

stable-diffusion-webui フォルダ配下の「webui-user.bat」をダブルクリック

コマンドプロンプトが起動して、ファイルダウンロードインストールが実施される

http://127.0.0.1:7860」という表示の少し後で止まってブラウザが起動する

ブラウザが起動すればインストールも完了

終了

自動起動していたコマンドプロンプトの画面で「Ctrl+C」を実施すると「バッチジョブを終了しますか (Y/N)?」と表示されるので「y(return)」するとコマンドプロンプトの画面が閉じます。

この後はブラウザ上で操作しても表示されなくなるので右上の「×」でウィンドウを閉じます。

コマンドプロンプトで「Ctrl+C」を行い「y(return)」で画面が閉じる

ブラウザは右上の「×」で閉じる

起動(2回目以降)

2回目以降も起動方法は1回目と同じで、stable-diffusion-webui フォルダ配下の「webui-user.bat」をダブルクリックするとコマンドプロンプトブラウザが起動します。

2回目以降はインストールが無いためすぐにブラウザが起動します。自分の環境では10秒程度でした。

stable-diffusion-webui フォルダ配下の「webui-user.bat」をダブルクリック

2回目以降はすぐに「http://127.0.0.1:7860」が表示されてブラウザが起動する

ブラウザが起動

Stable Diffusion WebGUI での画像生成

画像生成のやり方

Stable Diffusion はAIでテキストから画像を生成しますが、このテキストのことは一般的に「プロンプト」や「呪文」と呼ばれています

ネットで検索するといろいろなプロンプトの書き方などが出てきますが、とりあえず「【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】 | 悠々ログ」を参考に動かしてみましょう。

ブログの「【例3】ヘッドフォン女子」のプロンプトを試してみます。
ブログでは設定値について詳細な記載がありますが、最初は気にせず、値はデフォルトプロンプトだけを記載すれば大丈夫です。

Stable Diffusion WebUI の画面を見ると「Prompt」と「Negative prompt」という枠があるので、それぞれ以下をコピペで貼り付けて「Generate」すると画像が生成されました!

Prompt

masterpiece, best quality,ultra high res,(photo realistic:1.4),1 girl,big breasts,big blue eyes,blonde hair,upper body, close up of face shot, (ulzzang-6500-v1.1:1.0),cute, seductive smile, young, posing, lustrous skin, very long hair, cyberpunk, sword, city, headphones

Negative prompt

EasyNegative, (worst quality:2),(low quality:2),(normal quality:2), lowers, normal quality,((monochrome)),((grayscale)),skin spots, acnes, skin blemishes, age spot, nsfw, ugly face, fat, missing fingers, extra fingers, extra arms, extra legs, watermark, text, error, blurry, jpeg artifacts, cropped, bad anatomy

プロンプト(Prompt)カンマ「,」区切りでキーワードを羅列したもので、女性1人(1 girl)、ヘッドフォン(headphones)など、どういう絵かを言葉で説明したもの。

ネガティブプロンプト(Negative prompt)は、太ってる(fat)、指が少ない(missing fingers)など、こういう絵にならないようにということを言葉で説明したもの。

左上の枠でモデルデータを選択、「txt2img」タブでプロンプトを設定して「Generate」で生成

右下に画像が表示された!

画像をクリックすると拡大表示、右上の「×」で元の画面に戻る

画像の下にプロンプトや設定値が表示される、この情報は画像ファイルの中にも情報として保存されているので画像ファイルから確認が可能

Seed パラメータ

設定値の中に Seed というパラメータがあり主に画像の構図に大きな影響があります。何の数字だとどういう画像になるかはわからないのですが、Seed を含めて全ての設定値を同じ値で画像生成すると同じ画像が生成されます。

Seed の初期値「-1」は「ランダムな値で画像を生成する」という指定で、Seed-1」だと全ての設定値が同じでも画像生成する毎に違う画像が生成されます。

実際に生成した画像の情報を見ると Seed には特定の数字が表示されており、気に入った画像をもう一度生成したい場合はその画像の Seed を設定することで同じ画像を生成することができます。

プロンプトも設定値も何も変えずにそのままもう一度「Generate」すると画像が変わる

Seed の設定値は「-1」(ランダム)だが、画像下の情報を見ると Seed が毎回違うことがわかる

画像生成のパラメータ情報

過去に生成した画像のパラメータを確認したい場合、「PNG Infoタブに画像ファイルドロップすると設定値が確認でき、「Send to txt2img」のボタンで「txt2imgタブに同じ設定値を反映することができます。

PNG Infoタブで画像の設定値が確認できる

画像の格納フォルダ

生成した画像は「outputs」配下の日付のフォルダに格納されます。

生成された画像は「outputs」フォルダに png形式で格納される、512x512約400KB

Trico ちゃんの画像生成をトライ

自分の初めてのAI画像生成は VRChat のお友達の VRDJ Trico ちゃんの画像生成でした。

試行錯誤しながらなんとか作成したので、やった内容やプロンプトを紹介してます。

【Stable Diffusion】VRChat などの友達にAI画像のプレゼントはオススメ!
Stable Diffusion で VRChat の友達のAI画像を作成してプレゼントしました。気に入った作品を作るのは時間がかかりますが、お金はかからずに心のこもったプレゼントができるので、VRChat などの友達にAI画像をプレゼントするのは凄くオススメです!

コメント

タイトルとURLをコピーしました