(GPU購入不要)格安GPUクラウド(vast.ai)でのStable Diffusion AUTOMATIC1111 ver1.1環境構築解説

(GPU購入不要)格安GPUクラウド(vast.ai)でのStable Diffusion AUTOMATIC1111 ver1.1環境構築解説

格安GPUクラウドサービス vast.aiでStable Diffusion AUTOMATIC1111 ver1.1を環境構築する方法を解説します。 LocalPCにGPUを用意しなくても、普通のwindows/macos/linuxのLocalPCからクラウドのGPU環境に構築可能です。 ご質問あれば気軽にどうぞ(GW中は家族サービスで昼間PCを開けませんので返信は夜になりそうです)

2023/05/03 ver * 各工程の解説githubページ:https://github.com/spacewalkerjp/stablediffusion_AUTOMATIC1111_WebUI_setup_for_vast.ai/blob/main/README.md



[1*] 今回はvast.aiでも既に用意されているAUTOMATIC1111のイメージではなく、NVIDIA公式のDocker Image `nvidia/cuda:11.8.0-cudnn8-runtime-ubuntu22.04`をベースに環境構築を行います。 この方が、最新のAUTOMATIC1111の状況に追いつきますし、必要最低限の構築を理解しながら進められるので様々なextensionなどハックが進んでいるAUTOMATIC1111を扱うにも良いのでは?と思っています。 今回の解説は私流の1アプローチですのでこれをベースに更にスクリプトやDockerImageを作成して構築を自動化させるなど工夫いただければと思います。

[2*] 動画で解説している私のLocalPC環境: Windows 11 Pro(64bit) + WindowsTerminal + (PowerShell7.3) + OpenSSH(デフォルトインストール済み)

[3*] 動画中で生成している画像のプロンプトなどの情報(Model : BRAv5) Prompt: masterpiece, best quality, 1girl, profile face, stunning face, blue background, blurry, earrings, red brilliant dress Negative prompt: bad anatomy, (bad-artist:0.5), (worst quality, low quality, bad quality:1.8), lowres, (red, yellow, orange:1.3) Info: Steps: 28, Sampler: DPM++ 2S a Karras, CFG scale: 11, Seed: 3170388393, Size: 768×512, Model hash: 4ef8f0c10f, Model: BRAV5beta Special Thanks : @BanKaiPlease (the BRA model for thumbnail)

[4*] 留意:インスタンスを開始し、Dockerのimageをロードしてきて「connect」ボタンが表示されるまではおそらく課金はされていません。キャッシュが効く場合は1分くらいで上がるときもありますが、基本的には5~10分程度(通信速度が遅いホストだと)20分くらいかかることがありますので気長におまちください。[connect]ボタンが押せるようになって(インスタンスが起動して)からが課金開始です。

[5*] ローカルPC(GPU搭載)環境に対して今回のGPUクラウド環境とのメリット・デメリットは
メリット: * GPUを購入しなくて少額で試せる(面白いと思ったら高価なGPUをLocalPCに導入してもよい)
* 大手クラウド(AWS, GCPなど)のGPUクラウドに対しては安い。10ドル課金(プリペイド)しても数時間は遊べる(数時間あれば1000枚生成も可能)
* 非力なLocalPCでも実現できる。スマホ・タブレットでも不可能ではない。環境構築だけLocalPCをつかって、スマホ・タブレットでウェブアクセスみたいなことも可能
* 大パワーのGPUを使いたいとき(学習する際、多量な画像生成をする際)などLocalPCでは実現できないことができる
デメリット:
* それなりにLinux, SSH, Dockerなどの理解が必要(中級者~)
* インスタンスを終了(破棄)のたびに生成される画像が失われるのでLocalPCなどにダウンロードする必要がある(ダウンロードしてから破棄する=破棄しないと課金が続く)
* インスタンス起動時に今回の動画で紹介したものを毎回やらないといけない。構築に15~30分かかるためすぐに試せないともいえる。なのでできるだけ構築を速くできるようにしましょう。

[6*] 他社の格安GPUクラウド : JarvisLabs.ai, RunPod, Lambdaでもほぼ同様の手順で環境構築が可能です。開始の際が各社サービスの癖がありますが。興味があればまた動画で解説します。インスタンスを作るところ以外はほぼ同じ形で構築できます。

<チャプター>
0:00 導入
6:00 工程紹介githubの紹介
6:12 vast.aiによる構築手順
53:38 画像生成のサンプル 
54:18 生成した画像の一括ダウンロード(scp)
56:37 (おまけ)Apache2によるoutputsフォルダ公開
59:33 GPUベンチマーク比較(参考)
1:00:39 まとめ

Fujifilm X-H2 vs X-H2s動画比較。4K60Pで意外な結果に?比較検証と技術的類推。X-T5も同様

Fujifilm X-H2とX-H2sを両方購入し主に動画の比較を行いました。X-H2を使い始め4K60Pの画質に違和感(偽色・解像感)を感じ、X-H2sを導入。2機種をサイドバイサイドで比較し検証しました。またなぜ発生するのかを技術的に類推しました。この現象はX-T5でも同様の現象が発生すると思われます。これはX-Trans CMOS5 HRが高画素の為にデータが多すぎてうまく扱えないということに起因しており原理的にX-H2 & X-T5の4K60Pより、X-T4や今後出てくるX-S20の方が高画質である可能性があります。 *動画中で比較している撮影条件は極力揃えてあります。また偽色に関して影響がでないようにクロマ4:2:2 高いビットレートの条件で撮影しています。 *動画中の解像感比較は、動画ファイルを静止画に出して、更にそれを動画キャプチャーしているため、その過程で劣化をしておりあくまで相対的な傾向の判断としてください。 *動画中にFujiのイメージセンサーをSony製と勝手に仮定していますが、あくまでウェブサイトの情報から類推しているしているだけであり確定情報ではありません。

<動画の内容>
0:00 導入
1:45 違和感1:60P信者問題
5:54 違和感2:偽色・解像感問題
10:11 違和感3:動画の歪み問題
12:33 まとめ1(後半)
19:00 原因類推:X-FESのデータ
21:10 2つの原因とりうるボトルネック
24:19 (本丸)原因類推・分析表
33:11 まとめ2(後半)

<参考リンク>
[1] CEDEC 2019 芯(しん)・遅延対策2020 株式会社バンダイナムコ研究所森口さん:https://cedil.cesa.or.jp/cedil_sessio…