「AIで画像を生成できるようになったけど構図がいまいち」
そう感じる方も少なくないのではないでしょうか?
今回紹介する拡張機能を使うことによってこの悩みを簡単に解決することができます!
StableDiffusion-WebUIの導入がまだの方はこちらの記事をご覧ください。

導入方法
Extentionsタブに移動し、その中のAvaliableタブに移動します。

『Load from』ボタンを押して利用可能な拡張機能の一覧を表示させます。

sd-webui-controlnetという項目があるので、右にある『Install』をクリックします。

Installが完了したら、『Apply and restart UI』をクリックして再読み込みさせます。

モデルのインストール
次にControlNet用のモデルをインストールしていきます。
まずは下記サイトからモデルをダウンロードしてください。

赤で囲われているところがControlNet用のモデルです。今回はcontrol_openposeをダウンロードしました。
矢印で刺されているところをクリックするとダウンロードできます。

ダウンロードしたものをWebUIが入っているフォルダの~/extentions/sd-webui-controlnet/models
の中に入れてください。

使い方
WebUIを開くと新しく『ControlNet』という項目が表示されます。

これをクリックすると詳細な設定が表示されます。

最低限必要な設定は以下の通りです。
- 『画像をドロップ』という項目に素材となる画像を入れてください。
- 『Enable』にチェックを入れる
- Preprocessorはopenposeを選択
- Modelはcontrol_openposeを選択
画像はフリー素材サイトから持ってきました。人物がはっきり映っているような画像を選択すると良いでしょう。
設定が完了するとこんな感じになります。

- 今回使用したフリー素材サイト
promptはこのようにしました。
a girl,best-quarity,sea
そして生成した画像はこちらです。

すっごいですね!
比較するとほぼ変わりません。

モデルの仕組み
今回使用したのはopenposeというモデルです。
このモデルは参考になる写真を一度線にして、その線から人物を描写する作りになっています。
人物のポーズだけを指定したい場合、このモデルを使用します。

そのため、ほしいポーズが見つからないときは自分でポーズをとったり、ほかの人にポーズをとってもらったりすると表現の幅が簡単に広がります。
コメント