画像生成AIであるStable Diffusionのインストールにはいくつか方法があります。
今回インストールするGUI版とはどのようなものか?
インストールがとにかく簡単
ある程度なら細かい設定もできる

主な機能は装備されていますが、入門向けです。
今回の記事を読めば、下記のような絵が描けるまで設定できます!


Windowsのアプリケーションで仕組みを知らずとも簡単に操作できるのが特徴です。
必要スペック等をクリアする必要がありますが、ご自身のパソコンにローカル環境を簡単にできる仕組みを解説します。
前提
簡単に必要なスペックに触れておきます。
項目 | 推奨値 |
---|---|
OS | Windows, macOS, Linux |
CPU | 最近の世代のIntel Corei5, AMD Ryzen 5 |
メモリ | 16GB RAM以上 |
GPU | NVIDIA GeForce GTX1060, AMD Radeon RX580以上 ※重要(特にVRAM) |
ストレージ | 500GB以上(モデルや、画像生成によりかなり消費される) |
最低スペックでは生成する画像の解像度等を下げ、出来上がりの時間がかなりかかることになります。
また、グラフィックカードが特に重要で、VRAM容量が一定量ないと解像度が低いものしか出力できません。
時間はかかれど、品質のよいものをアウトプットできるか?は重要なポイントです。
インストール方法
ダウンロード
下記のURLからダウンロードできます。
先ずは、URLの先にある画面の「DownLoad」を選択します。


すると、いくつか選択肢が登場します。
一番下はパッチ(既にダウンロード済みでアップデート専用)なので、上2つのいずれかを選択します。
一番大きいサイズが学習済みモデルを含んでいますが、手っ取り早く試すならこれを選択します。


次に、いくらか寄付の依頼を受けます。
尚、一番上のリンクを押す事で、寄付は行わずダウンロードもできます。


ファイルの解凍
7zが解凍できるソフトなら何でもよいのですが、下記で解凍できました。
日本語のフォルダやスペースが混在するフォルダはオススメしません。
使い方
簡単に使い方を説明します。
アプリの起動
解凍フォルダ内にある、「StableDiffusionGui.exe」を起動してください。


ウインドウズのセキュリティダイアログが表示される場合がありますが、下記の通り選択してください。




モデルをダウンロードしてない場合は、下記のダイアログが表示されます。


最初に初回起動の場合に画面が表示されます。


先ずは、必要ファイルを追加ダウンロードします。


画面にチェックを付ける必要はないので、「Yes」をクリックします。


AMD製のGPUなら「Yes」を選択します。


追加で800mほど必要だと表示されます。「Yes」を選択します。
※顔の補正のモデルや各種コード


完了すれば、先程のチェックがONになっているはずです。


画像の生成
まず、出力したい画像を英語で入力します。
ここでは、high school girl(女子高生)を入れてみます。
そして、「Generate!」ボタンを押してください。


すると、スペックにもよりますが数秒から数十秒で画像が生成されます。
(初回はメモリへのロード等があり、時間がかかります)
これは、別のモデルを使用しています。
驚くほど簡単に画像が生成されました。公式のモデルではもっと抽象化された絵が描かれたと思います。
お気づきだと思いますが、プロンプトと呼ばれるキーワードが重要です。
いい絵がかけるまで何度も修正する必要があり、場合によっては数時間かるく飛びます。
またこのプロンプトのことを「呪文」と呼ばれたりもします。



簡単に画面のパラメータ(設定)の説明をしておきます。
項目 | 内容 |
---|---|
negative prompt(黄色枠下の入力欄) | 黄色枠が生成したいキーワードを入力します。 ネガティブはその逆で、加えたくないキーワードを入力します。 例えば、ショートヘア等を指定すれば短い髪は描かれにくくなります。 |
Additionala Input Data | 画像から画像を出力する際に使用します。 今回の説明範囲外ですので詳細は割愛します。 |
Amount Of Images To Generate | 1度に生成する画像枚数 |
Generation Steps | 描画に施行する回数 小さすぎると雑になり、大きすぎると破綻します。 モデルやプロンプトによっても適度な数値は変わります。 |
Prompt Guidance | どのくらいプロンプト(キーワード)に忠実な描画をするかの度合いです。 小さいと自由度が上がり、大きいと指定した通りになりますが、こちらも過ぎると破綻します。 |
Seed | 各種パラメータが同一であれば、シード値(乱数)を指定すればかならず同じ絵が描画されます。絵を固定させ、他のパラメータを調整したい場合などに利用します。 |
Resolution | 画像の解像度(大きくするとVRAMを使用し、時間もかかります) |
Sampler | Stepとの関連性があります。モデルによって推奨設定があったりもします。 出来上がる画像は変わる場合があり色々試してみてください。 (生成にかかる時間もかわります) |
Generate Seamless (Tileable) Images | シームレスなタイル状(続きの)画像を生成します。 例えば模様が延々と続くような画像を生成したい場合等に便利です。 |
モデルの切り替え(導入)
モデルとは、AIの学習データとなります。
AIとは機械学習により大量のデータから傾向を学習しますが、入力するデータや学習方法等でモデルは大きく異なります。
例えば、人間でも風景を中心に描く人や、人物を中心に描く人では得意な分野が異なるのと似ています。
現在、モデルは大量にありますが、最近のモデルの一覧を記事にしているので参考にしてください。


モデルダウンロード
ここでは、先程描画に使用した「meinamix」というモデルをダウンロードします。
https://civitai.com/models/7240/meinamix
遷移先のページの右上のダウンロードボタンを押してください。


すると下記のファイルがダウンロードされるはずです。
これを下記に配置します。
(インストールフォルダ)\SDG-1.9.1\Data\models
※SDG-X.X.X(X.X.Xの部分は異なる場合があります)
モデルの変換
現在のアプリではこの拡張子では稼働しないので、アプリに梱包される変換ツールを使用します。


スパナアイコンをクリックするとメニューが表示されます。「Convert Model」を選択してください。
次のダイアログで、一番上の選択を「Safetensors (safetensors File)」を選んでください。


中央の選択は、先程ダウンロードしたファイルで、最後は「Pytorch (chpt/pt File)」を選択します。
別のツールではsafetensorsが直接扱えるものもあります。
safetensorsの方が新しい形式ですが、セキュリティ的に安全なファイルとなります。
多少面倒でもこの形式のファイルをダウンロードするようにしてください。
「Convert!」を押すと変換されます。(しばらく時間はかかります)
変換されたファイルは、先程配置した同一フォルダに作成されているはずです。
今回であれば、「」というファイルが出来ていたら成功です。
モデルの適用
設定画面からモデルの変更を行います。
※右上の歯車マーク


設定画面の「Stable Diffusion Model」というリストで先程のファイルを選択します。
リストになければ、「Refresh List」ボタンを押してみてください。


ポジティブプロンプト
(masterpiece)+++,(bestquality)+++,(ultra-detailed)++,(illustration)+,(anextremelydelicateandbeautiful)++,dynamicangle,floating,(beautifuldetailedeyes)+,(detailedlight)+ (1girl)+, solo, floating_hair,glowingeyes,green hair,greeneyes, twintails, halterdress, <lora:atdanStyleLora_lk:0.6>, atdan <lora:animetarotV2-000002:1>, green background,
EasyNegative, english text,





他にも設定はありますので、別の記事を作成する予定です。
コメント