AI活用

Stable Diffusion完全ガイド|使い方からモデル選び、LoRA活用まで徹底解説

Stable Diffusion完全ガイド|使い方からモデル選び、LoRA活用まで徹底解説

「Stable Diffusionって無料で使えるの?」「ローカルで動かすには?」「MidjourneyやDALL-Eとの違いは?」

Stable Diffusionはオープンソースの画像生成AIです。無料で利用でき、カスタムモデルやLoRAで自由にカスタマイズできるのが最大の強みです。

本記事では、Stable Diffusionの使い方から活用法まで詳しく解説します。


Stable Diffusionとは

概要と特徴

Stable DiffusionはStability AIが開発したオープンソースの画像生成AIです。

主な特徴:

  • 完全無料(ローカル実行)
  • オープンソース
  • カスタムモデル対応
  • LoRA・ControlNet対応
  • 商用利用可能

他のAIとの比較

項目Stable DiffusionMidjourneyDALL-E 3
料金無料(ローカル)$10/月〜$20/月〜
カスタマイズ×
操作性△(要学習)
品質◎(モデル次第)
商用利用

利用方法

1. ローカル環境(推奨)

自分のPCで実行する方法。完全無料で制限なし。

必要スペック:

  • GPU: VRAM 8GB以上(推奨12GB以上)
  • RAM: 16GB以上
  • ストレージ: 50GB以上の空き

おすすめGPU:

  • RTX 3060 12GB(入門)
  • RTX 4070 12GB(標準)
  • RTX 4090 24GB(高性能)

2. クラウドサービス

ブラウザで利用できるサービス。

サービス特徴料金
Civitaiモデル共有サイト無料〜
Leonardo.ai高品質、使いやすい無料〜$10/月
RunPodGPU時間貸し従量課金
Google Colab無料枠あり無料〜

3. ローカルアプリ

インストールするだけで使えるアプリ。

  • Stable Diffusion WebUI(AUTOMATIC1111): 最も人気
  • ComfyUI: ノードベース、上級者向け
  • Fooocus: シンプル、初心者向け

環境構築(WebUI)

インストール手順

1. Pythonのインストール

Python 3.10.6を推奨
https://www.python.org/downloads/

2. Gitのインストール

https://git-scm.com/downloads

3. WebUIのダウンロード

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

4. 起動

# Windows
webui-user.bat

# Mac/Linux
./webui.sh

初回起動

初回は必要なファイルを自動ダウンロード(数GB)。 完了後、ブラウザでhttp://127.0.0.1:7860にアクセス。


基本的な使い方

txt2img(テキストから画像)

1. プロンプトを入力

masterpiece, best quality, 1girl, long hair, blue eyes,
white dress, standing in flower field, sunlight

2. ネガティブプロンプトを入力

worst quality, low quality, blurry, bad anatomy,
extra fingers, watermark

3. パラメータ設定

  • Sampling method: DPM++ 2M Karras(推奨)
  • Sampling steps: 20-30
  • CFG Scale: 7-12
  • Width/Height: 512x512〜1024x1024

4. Generateをクリック

img2img(画像から画像)

既存の画像をベースに新しい画像を生成。

活用例:

  • 写真をイラスト化
  • 画像のスタイル変換
  • 部分的な修正

Inpaint(部分修正)

画像の一部だけを再生成。

活用例:

  • 顔の修正
  • 背景の変更
  • オブジェクトの追加・削除

プロンプトのコツ

基本構成

[品質タグ], [被写体], [外見], [服装], [ポーズ/行動],
[背景], [ライティング], [スタイル]

品質タグ

高品質: masterpiece, best quality, highly detailed
画風: anime style, realistic, photorealistic, oil painting

重み付け

(important:1.5) → 1.5倍強調
((very important)) → 1.21倍強調
[less important] → 0.9倍

プロンプト例

アニメ風イラスト:

masterpiece, best quality, 1girl, solo, long blonde hair,
blue eyes, school uniform, sitting at desk, classroom,
sunlight through window, detailed background

フォトリアル:

photorealistic, 8k uhd, professional photography,
woman, 25 years old, natural makeup, business suit,
modern office, soft lighting, shallow depth of field

モデルの選び方

モデルとは

Stable Diffusionの「画風」を決める学習データ。 用途に応じて切り替え可能。

おすすめモデル

モデル特徴用途
SDXL公式最新、高品質汎用
Animagine XLアニメ特化イラスト
RealVisXLリアル特化写真風
Pony Diffusion多用途汎用
Juggernaut XLフォトリアル人物写真

モデルの入手先

Civitai(civitai.com):

  • 最大のモデル共有サイト
  • プレビュー画像付き
  • 無料でダウンロード

Hugging Face:

  • 公式モデル中心
  • 安全性が高い

モデルのインストール

  1. モデルファイル(.safetensors)をダウンロード
  2. models/Stable-diffusion/フォルダに配置
  3. WebUIを再起動
  4. 上部のドロップダウンで選択

LoRAの活用

LoRAとは

特定のキャラクターやスタイルを追加学習させたファイル。 モデルと組み合わせて使用。

使い方

  1. LoRAファイルをmodels/Lora/に配置
  2. プロンプトに<lora:ファイル名:強度>を追加
masterpiece, 1girl, <lora:specific_style:0.8>

おすすめLoRA

  • キャラクターLoRA: 特定キャラを生成
  • スタイルLoRA: 画風を追加
  • コンセプトLoRA: 特定の概念を追加

ControlNetの活用

ControlNetとは

ポーズや構図を指定できる拡張機能。

主なモード

モード用途
Canny線画から生成
OpenPoseポーズ指定
Depth奥行き指定
Scribble落書きから生成
Tile高解像度化

使い方

  1. ControlNet拡張機能をインストール
  2. 参照画像をアップロード
  3. プリプロセッサとモデルを選択
  4. 通常通り生成

高解像度化

Hires.fix

生成時に高解像度化。

設定例:

  • Upscaler: R-ESRGAN 4x+
  • Hires steps: 15
  • Denoising strength: 0.4-0.6
  • Upscale by: 2

img2imgで拡大

生成後の画像をimg2imgで高解像度化。


トラブルシューティング

VRAM不足

対策:

  • 画像サイズを小さく(512x512)
  • --medvramオプションで起動
  • バッチサイズを1に

生成が遅い

対策:

  • --xformersオプション
  • Sampling stepsを減らす
  • VAEをオフに

品質が低い

対策:

  • 品質タグを追加
  • ネガティブプロンプトを充実
  • モデルを変更
  • CFG Scaleを調整

商用利用について

基本ルール

Stable Diffusion自体は商用利用可能。 ただし、以下に注意:

確認ポイント:

  • 使用モデルのライセンス
  • LoRAのライセンス
  • 生成物の内容

安全な商用利用

  1. ライセンスを確認
  2. 商用可能なモデル・LoRAを使用
  3. 第三者の権利を侵害しない
  4. 記録を残す

よくある質問

Q. 完全無料で使えますか?

A. ローカル環境で実行すれば完全無料です。ただし、VRAM 8GB以上のGPUが必要です。クラウドサービスは従量課金や月額制があります。

Q. MacでもStable Diffusionは動きますか?

A. M1/M2/M3 Macでも動作しますが、NVIDIAのGPUに比べると速度は遅くなります。基本的な使用には問題ありません。

Q. MidjourneyとどっちがおすすめAですか?

A. 手軽さ重視ならMidjourney、カスタマイズ重視ならStable Diffusionです。両方試して用途に応じて使い分けるのがベストです。

Q. 学習させた特定キャラクターを生成していいですか?

A. 著作権の問題があるため、商用利用は避けてください。個人利用の範囲でも、公開する場合は注意が必要です。


まとめ

Stable Diffusionはカスタマイズ性の高さが最大の魅力です。

おすすめポイント:

  1. 完全無料

    • ローカル実行で制限なし
    • クラウドサービスも低コスト
  2. 自由なカスタマイズ

    • 多様なモデル
    • LoRAで細かい調整
    • ControlNetで構図指定
  3. 商用利用可能

    • ライセンス確認は必要
    • 多くのモデルが商用OK
  4. コミュニティ

    • Civitaiでモデル共有
    • 活発な情報交換

まずはFooocusやLeonardo.aiで試して、本格的に使うならローカル環境を構築してみてください。


関連記事

画像生成AI・クリエイティブツールについてさらに詳しく知りたい方へ。


※本記事の情報は2026年1月時点のものです。Stable Diffusionのバージョンやモデルは頻繁に更新されるため、最新情報はコミュニティをご確認ください。