AIイラストを生成するシステムの一つに「Stable Diffusion」があります。この記事では、「Stable Diffusion」を使いやすく改良された『Stable Diffusion web UI』の使い方をまとめていきます。インストール方法をはじめ、クオリティを上げるプロンプトの探し方、ポーズを指定する方法など網羅的に紹介します。
Stable Diffusionとは
『Stable Diffusion』とは、画像生成AIの一種です。無償で公開されており、だれでも使うことができます。
画像生成の際、ユーザーは画像のイメージをテキストで入力します。例えば「girl, short hair, forest」など。日本語で指示をすることはできませんが、複数の英単語を組み合わせることで画像を生成できます。
誰でも使えるため便利なAIではありますが、下記のようなハードルがあります。
- 自分のパソコンで行なう環境構築が複雑
- ある程度、高いスペックのPCが必要
- 画像生成にはコマンドラインでの操作が必要
初心者には、導入するだけでも難しいかもしれません。
ただ、Stable Diffusionを比較的簡単に使えるツールも作られています。この記事で紹介する『Stable Diffusion web UI』も簡単に使えるツールの一種です。
Stable Diffusion web UIとは
『Stable Diffusion web UI』は、自身のパソコンにStable Diffusionを利用できる環境を構築し、ブラウザの画面を使って画像を生成できるツールです。

ブラウザを使用するためWindowsやMac、Linuxでも動かすことができ、ここでは解説しませんが、Google Colab(ブラウザ上でPythonを実行できるサービス)を使えばだれでも高性能なGPUを使うことも可能です。
何より、ブラウザというインタフェースのおかげで直感的に操作ができるため、ストレスの少ない画像生成を行うことができます。
この記事では、『Stable Diffusion web UI』の導入方法や基本的な使い方をはじめ、思い通りの画像を生成するためのテクニックを紹介していきます。
もし導入が困難なら
『Stable Diffusion web UI』は比較的簡単とはいえ、導入が難航することもあります。
インストールはコマンドプロンプトで行ない、発生したエラーには自身で解決しなければいけません。

もしエンジニアさんならばどうにかなるでしょうが、まったく慣れていないと操作が難しく感じるでしょう。この記事では、なるべく初心者でもわかるように説明しますが、断念してしまう方へは別の画像生成AIも紹介しておきます。

『NovelAI Diffusion』もAIイラストを生成できるサービスです。Stable Diffusionと同じく英語のテキストをもとに画像を生成します。
下記のような特徴があります。
- Webサービスなので環境構築が必要ない
- 公式サイトで登録すればすぐに使える
- ただし有料
NovelAIは、有料ではありますが、AIイラストを作る最も簡単な方法です。
筆者も以前はNovelAIを使っていました。今はStable Diffusionに乗り換えています。というのも、Stable Diffusionが無料であるのに加えて、有志の方々による日々のアップデートがすさまじく、自分の思い通りのクオリティやテイストで画像が作りやすく感じるためです。
ただNovelAIでも十分に高クオリティなイラストを生成できることには違いありません。
この記事でStable Diffusionの導入が難しいと感じた方は、NovelAIを考えてみてもよいかと思います。
Stable Diffusion web UIのインストール方法
では『Stable Diffusion web UI』をご自身のパソコンにインストールしていきましょう。
インストールに必要なもの
『Stable Diffusion web UI』を使うには下記のものが必要です。
- NvidiaのGPUが推奨
- Python3.10以降( https://www.python.org/downloads/release/python-3106/ )
- git( https://git-scm.com/ )
GPUについてですが、公式の推奨はNvidia製です。ただAMDのGPUにも対応はしているようなので動作はするかと思います。スペックについては明確なものがなく、スペックが高ければ「イラスト生成のスピードが速くなる」「一度に生成できるイラストの枚数が増える」といった特徴があります。
また、PythonもPC内にインストールしておく必要があります。すでにPCに入っているPythonのバージョンを確認するには、コマンドプロントで下記のコマンドを実行します。
python -V
もし、Pythonのバージョンが3.9など別のバージョンであれば上記に記載したリンクからインストールをします。バージョンが低くても『Stable Diffusion web UI』自体はインストールでき、イラスト生成ができることもありますが、のちにインストールしたモデルや外部プラグインが動作しないことがあるので、バージョンを上げておきましょう。

Pythonのインストーラをダウンロードし起動すると、上記のような画面になります。「Install Now」を押せばインストールが始まりますが、「Add Python 3.10 to PATH」にチェックを入れることを忘れずにしましょう。
チェックを入れないと、デフォルトで使用するPythonのバージョンが更新されず意味を成しません。
インストール手順
ここではWindowsに『Stable Diffusion web UI』をインストールする方法をまとめていきます。詳しい情報・ほかのOSでのインストール方法は配布先のGithub(https://github.com/AUTOMATIC1111/stable-diffusion-webui)をご覧ください。
まずは任意の場所にインストール用のフォルダを作成します。どこでもよいですが、「C:\Users\<ユーザー名>」直下に「stable-diffusion」とかの名前で作っておくと、これからのコマンド入力が楽です。
PowerShell(というwindowsに搭載されているソフト)を起動します。cdコマンドでインストール用フォルダに移動します。上記の例で作成したならば、次のように入力するだけです。
cd stable-diffusion
下記のコマンドを順番に実行してください。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd .\stable-diffusion-webui\
.\webui-user.bat
かなり時間はかかりますが、気長に待ちます。
『Running on local URL: http://127.0.0.1:7860』のようにリンクが表示されたらインストール完了です。
もし何かしらのエラーが発生した場合には、「Stable Diffusion web UI + エラー名」で調べると海外のgithubかRedditの議論がたいていあるかと思うので、翻訳を駆使して頑張るしかありません。日本語での解決は難しいかもしれないです。
表示されたリンクをブラウザで開けば、『Stable Diffusion web UI』を起動できます。
便利な起動方法
起動するには毎回下記のようにコマンドを実行する必要があります。
cd .\stable-diffusion-webui\
.\webui-user.bat
ただ個人的には、面倒ですしファイル名を暗記できないため、デスクトップにショートカットを作っておくのがおすすめです。
先ほど自分で作成したフォルダを開くと、Stable Diffusionの各種ファイルが入っています。「stable-diffusion-webui」フォルダの中にある「webui-user.bat」ファイルのショートカットを作成しデスクトップにおいておけば、いつでもすぐに起動できます。
簡単なものですが便利です。
Stable Diffusion web UIの使い方
『Stable Diffusion web UI』でイラストを生成するための簡単な操作方法を紹介します。
基本的な使い方

基本的には「txt2img」タブで、Prompt(プロンプト)を入力して画像を生成します。
プロンプトは英語で入力する必要があり、複数の単語を組み合わせて入力します。(例)1girl, short hair, blue eyes
これをSNSなどでは「呪文」と言われたりします。
プロンプトには2種類の入力項目があります。
- プロンプト:生成したいイラストの特徴を入力する
- ネガティブプロンプト:生成するイラストに入ってほしくない要素を入力する
それぞれを入力したら、「Generate」を押すとイラストが生成されます。これが基本的な使い方です。
パラメータについて
各種パラメータを変更することで、イラストの精度が変わります。

①Sampling method | サンプリング方法。イラストの出来が変わる。 DPM++ 2M Karrasが人気。 |
②Sampling steps | イラスト生成までのステップ。 大きいほど精密なイラストになるが大きければ良いというわけではない。 |
③Restore faces | きれいな顔になる。生成したい画風によってはオンでもいいかも。 |
④Tiling | タイル状になる |
⑤Hires. fix | 解像度を変更できる |
⑥WidthとHeight | イラストの横幅と縦幅 |
⑦Batch count | バッチの回数(生成する枚数) |
⑧Batch size | 1回のバッチで何枚生成するか。同時並行で生成する枚数。 たくさん生成するときはBatch countをあげてBatch sizeを1にすると負荷が少ない。 |
⑨CFG Scale | どれだけプロンプトに忠実にするか |
⑩Seed | シード値。-1だとランダムになる。 同じ構図や雰囲気にしたいならば、当該の画像のseed値を入れる。 |
後述する「モデル」を新規でインストールする場合は、配布もとで「Sampling method」「Sampling steps」などの推奨値が記載されていることもあります。
初期設定や推奨値をベースに少しずつ変更して試してみてください。
良質なイラストを生成するコツ
思い通りの高クオリティなイラストを生成するためのTipsをまとめます。
モデルを入手する
高クオリティのイラストを生成するにはプロンプトが重要ですが、どのモデルを使うかも大切な要素となります。
モデルによって、アニメ風イラストが得意だったり、実写風のイラストが得意だったり……。生成されるイラストのタッチや出来が大きく変わります。
同じプロンプトでイラストを生成してみます。
例えば「anything-v3」というモデルを使うと次のような画像が作れます。

「Defmix-v2.0」でも同じプロンプトで生成します。

どちらも高クオリティですが、使われる色合いや背景の作りこみが変わっています。
おすすめのモデルや、『Stable Diffusion web UI』にモデルを導入する方法は別の記事にまとめます。こちらもぜひご覧ください。

プロンプト(呪文)を探すには
「どんなプロンプトを入力すればよいか」を悩んでいる方は多いことでしょう。
描写したい要素を細かくAIに指示をすることが大切ですが、ある程度の定石や傾向は存在します。
例えば「1girl, solo」と入れれば複数人生成されることは減り、「chibi」と入れればミニキャラが出やすくなるなどがありますが、自分で理想のプロンプトを探すのは時間がかかりすぎることもあります。
ここでは参考になるプロンプト(呪文)を探す方法をまとめます。
定番なのはTwitterでツイートしている方のプロンプトを参考にすることです。
「#stablediffusion」や「#AIイラスト」などタグで検索するとテクニックを公開してくれている人は多数見つかります。

「chichi-pui」はAIイラスト専門の投稿サイトです。
イラストをただ投稿できるだけでなく、同時に使用したプロンプトも投稿でき、ユーザーは参考にすることができます。ただ、使っているモデルまでは書かれていないこともあるので、まったく同じものは難しいかもしれませんが、どんなプロンプトが必要なのか勉強になります。
海外でもAIイラストコミュニティは活発です。
日本だけでなく海外の情報を得るには、Twitterもよいですが海外ユーザの多いSNS「Reddit」もおすすめです。
stable diffusionのテクニックの進化はすさまじいです。2、3日経つだけでも新しい方法が確立されていたりします。
Redditで共有されたテクニックがTwitterで広まるまでには、既に新しいものが生まれていたりも珍しくありません。最新の情報をチェックしたいならば各SNSを見るとよいでしょう。
noteでもテクニックを公開している人はたくさんいらっしゃいます。
stable diffusionもユーザーの層が厚く、日本の場合は個人ブログかnoteでの発信が活発なようです。
stable diffusionのテクニックはSNSを中心にシェアされています。
ここで紹介したものから、ぜひチェックしてみてください。
ネガティブプロンプトを厳選する
ネガティブプロンプトの欄には、イラストに入ってほしくない要素を入力していきます。
「low quality, worst quality」と入れれば、低品質なイラストが生成されにくいなども定番です。
どんな単語を入れるかもテクニックですが、もっと簡単な方法もあります。
「EasyNegative」というembeddingsを使ってみましょう。embeddingsとは拡張機能のようなものと覚えておけば問題ありません。
インストールし、ネガティブプロンプトにEasyNegativeと入力するだけでクオリティが格段にアップします。
具体例を紹介します。

左がネガティブプロンプトなしで生成したもので、右が「EasyNegative」をネガティブプロンプトに入力したものです。
表情をはじめ、イラスト全体が高クオリティになっていることがわかるかと思います。
「EasyNegative」の導入方法は下記の記事にまとめています。

【追加学習】Loraの追加学習で自分好みのイラストを作る
イラストを生成するときに、「特定のキャラクターを描いてほしい!」という方もいるはずです。
このサイトに限ってはVTuberさん向けのコンテンツを多くそろえているので、自身のアバターを元にセルフファンアートやサムネイル用イラストを作りたい方もいることでしょう。
プロンプトに詳細な内容を追加していけば、それっぽいイラストを作ることが可能ですが、あくまで似ているイラストになってしまいます。満足のいくクオリティになるまでは、かなりの時間を要するでしょう。
そこで使用するのは、AIに追加学習をさせる『Lora』という技術です。
Lora により自身で学習させたモデルを使って、かなり確率高く、生成したいキャラクターに近づけることができます。試しに当サイトのキャラクターである「翠さん」を学習させ、生成してみました。

そこまで細かく設定していないので粗削りですが、15枚を同時に生成してみました。
使ったプロンプトは下記です。
1girl,solo, silver midium hair, blue eyes, <lora:sui:0.5>
シンプルなプロンプトでも、元のモデルからそれほど外れることなく生成されているのがわかるかと思います。
ただ、上記の画像を見てもわかるように、イラストの雰囲気はちゃんと生成されていますが、AIイラスト特有の「手がきれいに表示されない問題」は引き続き残ってしまっています。
これに対しても、いまでは対策が考えられています。
次の項目で詳しく解説します。
既存のイラストや写真を活用するには
イラストを生成するうえで、特定のポーズにしたい場合もあるかと思います。そういったときは「ControlNet」というプラグインを使います。
ControlNetを使えば、既存の写真・イラスト・ボーンから、体の構造を抽出しイラスト生成に反映することができます。
ControlNetの機能については別の記事にまとめますが、ここでは具体的な使用感について簡単に紹介します。

上記の画像は、Redditの投稿からお借りしました。ポーズをStable Diffusionに読み込ませイラストに反映します。ControlNetの機能の一つであるopenposeを使用すれば、同じように写真からポーズを抽出できます。
実際に生成したイラストは下記になります。

このようにポーズを制限したイラスト生成が可能です。
主な使い方は下記の記事をご覧ください。

以上、Stable Diffusionの使い方をまとめました。
AIイラストでできることや、便利な使い方は日々増えていっています。この記事も定期的に更新していこうと思います。
スポンサードリンク