【StableDiffusion】AI画像生成技術7【Midjourney】
レス数が1000を超えています。これ以上書き込みはできません。
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
Midjourney: 有料サブスクで商用利用まで可能なAI画像生成サービス
(DALLE・Craiyonの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合6【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1664642254/
AIイラスト 愚痴、アンチ、賛美スレ part4
https://mevius.5ch.net/test/read.cgi/illustrator/1663855443/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【Midjourney】AI画像生成技術6【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1663560800/ 各AI画像生成サービス、またその生成物を使用する時は自分の目で各サービスの規約をよく読んでから使いましょう 誘導しといたよ
いきなり勝手に立てて、こっちを分裂荒らし呼ばわりとかしだして怖すぎる
ワッチョイ付け忘れて失敗してるのがまたダッサダサ こっちにも書いとくけど荒らしか知らんがスレ分裂させるんじゃないよ
どっちメインかささっと決めてどっちか落としなはれ 出てくる画像が額縁に入れられたり、壁に貼られたふうになったりするのを防ぐにはどうすればいいんでしたっけ
ネガティブにframeを入れてもだめでした さらっときちんとしたスレ立てして誘導する>>1 に感謝
スレタイ読まない荒らしはprompt無視するハズレみたいに仕方ないものだと捉えてる
洗練されてけばそのうち居なくなると思うけど、実際SDが洗練されてくとして、その中のハズレってかなりおぞましい画像になりそう シチュわからないから試してないけど
museumとかマイナスにしたらいいんじゃない? 1111版をgit pullしたらTextual inversionタブができてるんですけど!!!
多分すぐにgigazineが使い方を解説するだろうからそれまで待とうっと 1111はもう完全にstable diffusionの技術展示会状態だなw
dream boothが十分に低メモリで動くようになったら、しなっと連携しそうな勢いだw 1111恐ろしいほどの進歩やな
CPU学習をサポートするようになったら、AI絵の次のステージがみんなのものになるな Number of vectors per tokenて何だろう
多いほど柔軟になるのか? 1111版って今までよりも便利かつ使いやすくするって認識でいいかな?
その結果求めてるような雰囲気の画像が生成しやすくなり効率があがるって感じ? 1111のtiはやくね?3080で1000ステップ5分で終わった
入力は18枚 オリキャラCG結構描いてるからTextual inversion楽しみだわ
ファンアートしてもらったこと無いけど、AIさんにファンアート描かせたるw >>13
プレースホルダーが使うトークン数?(わからん)
多いほど似るし学習も速くなるがプロンプトによる影響を受けづらくなる
最大73
img2imgやプロンプトスワップなら73でもそこそこ編集できる >>14
Negativeが使えるのがとんでもなくデカい
嫌なものを直で入れるだけで避けてくれる上に有効活用すればトークン容量が2倍になったようなものなので >>17
サンクス
たしかに1より16のがかなり精度高そうだわ TIはややこしそうなのであえて無視してたのに、入れられたら触らないといけないじゃないか おかげでコマンドラインになじみが無いにわか層でも最新AI技術を堪能できる 今の1111、LDSRのupscalerだと下端が黒帯にならん? 俺だけじゃなかったのか
4chanで言っても誰も反応してくれなくて困ってた githubでは正方形の画像にしか使えないと既知のissueだったよ
VRAM8GBでもTextual Inversionできるらしいけどどうなんだ 自演で自画自賛の流れに誘導したり話題作って伸ばしてるのがバレるからしゃーない ip出すと家でサーバー建てたりできるような人はいなくなるだろうし
荒らしをスルー出来ないスマホキッズだけ残って延々同じレベルの質問繰り返すスレになりそう 1111の方は書くに出来てないけど元のTIの設定見ると低メモリでTIやるには動作速度と元画像解像度犠牲にする必要がある
1111版は解像度犠牲しなくていいなら強いかもしれない 1111版は一番良い実装を入れてるっぽい
特に制限なく512x512でやれるしVRAMが8GBでも動くとか
DreamboothがVRAM10GBで動くようになった現在TIをアレコレ使うかというとアレだけど Stable Diffusionスレで質問したのですが、こちらでも質問させてください
マルチ投稿となり申し訳ありません
逆さまに置かれたコップの画像生成を試みていますが、どうしてもうまくいきません。
upside-down, overturned, inverted など思いつく限りのキーワードは試してみました。
"an overturned glass which captures curled white smoke in it, centered, realistic"
で、12枚出力した結果。
[Stable Diffusion] https://imgur.com/pZXCZeo
[Dell-E] https://imgur.com/do9U4wt
こんな感じのコップをひっくり返せる propmt がありましたら御教示いただけますでしょうか?
煙 (curled white smoke)は無くてもかまわないので。 >>33
ピンポイント過ぎてすぐには具体的な例を出せないけど
そうなって然るべき状況を書くことで結果的に逆さまのコップを描かせるという手法がある
そのまま訳して動く訳じゃないけど
飲食店でストックされてるコップ とか
使われる前のテーブルに準備されたコップ とか >>27
説明見てもはっきりしたことは書いてないな
float16より32の方が良い
使用メモリ半減オプションは使わないほうが安全
low-memやmed-memでは動かないとしか書いてない 昨日まで使えたのに
Warning: k_diffusion not found at path /content/stable-diffusion-webui/repositories/k-diffusion/k_diffusion/sampling.py
って出て最後のとこ動かなくてUIでないんだけどどうしたんでしょう >>36
k_diffusionの入れ方が変わったっぽくて、repositoriesディレクトリにgit cloneしておかないとwarningが出る。
でもwarningが出るだけでuiは動いたけどな? >>33
> Stable Diffusionスレで質問したのですが
どこ?見つからなかった
無理だろうね、一番出そうな
「Sport stacking cup world record」で50回やって唯一出たのでこれ
https://i.imgur.com/ksAj5Jf.jpg
「upside-down water glass on paper」「upside-down glass of water trick」
なんかでもかすりもしない
一番寄せてくるDALLEで駄目ならSDもMJもほぼほぼ駄目
コップは必ず上側に口があるみたいな学習になってるのかな
こういうの結構あって、横に長く寝そべってる人間なんかも苦手 novel aiとWaifuのep7がほぼ同時に来るとかw >>39
よく見たらボロンしとるやないか
pink池 >>38
ここです
Stable Diffusion
https://egg.5ch.net/test/read.cgi/software/1661568532/60
試していただいてありがとうございました。
こちらも諦めずに試行錯誤を続けてみようかと思います。
その過程で色々学べるでしょうし >>44
Diffuser版DreamBoothはColabで学習できる代わりに精度が悪いのがね
CLIPを学習してないのが原因らしいから数日したら改善版が出るかもしれんが >>43
ああソフトウェア板か、そういえば作ってたね、一度見た形跡があった
抜け道として既存の写真や自分で書いた絵からimg2imgって手もあるけど
まぁそれは望んでなさそうなんで
https://i.imgur.com/vUgt9Bc.jpg Batch countを増やした生成が終わったら1に戻る設定か、Batch countを1に戻すボタンがほしい
インタラプトすればいいやんて言われちゃうかな 読み違えてたわ
そこら辺は簡単に改造でできそうではあるけど例によってgitに要望あげる手もある定期 >>33
ほんとだ出ないね、面白い
逆さまのグラスという画像を一切学習してないのだろう
これはどう転んでもプロンプトでは出ないかもしれないね #novelai (#novelaidiffusion)リリースされたけどすごすぎない?
アニメ風に特化しすぎなのか、画像をツイートしてる人たちの趣向が偏っているのか Waifuのフォークなのか完全独自なのか知らんけど、Danbooruを学習元にしてるってのは事前告知の頃に書いてあったはず >>52
有名キャラなら簡単に出る見たいだな。同一キャラの連作画像も出せるって話も前に出てたし
二次創作し放題ってところか。ただ課金サービスなのがなぁ NAIAnime Curated 短いプロンプトでもそれっぽいのを出してくれる指向性モデル ポンと入れたらアニメ絵が欲しい人向け(デフォルト)
NAIAnime Full 広い範囲を学習したもの 色々な出力が出やすい
NAI Furry ケモ特化のベータ版
至れり尽くせりだなおい Novel Ai公開
WaifuDiffusion ep7公開
dreamboothモデルデータのckpt変換
今日だけでどんだけ情報でてくんねん ほかの絵も見たけど、
上に書いた苦手な寝そべりや座ってる足先まできれいに出てるのはすごいな
さすがにある程度回してるとは思うけど
弱点がついに指先だけになってきたか 版権キャラを有料サービスで出力するとか何をどう解釈しても著作権違法違反なんだけど
流石に日本の企業は訴えるべきじゃね? >>59
そういうのはこっちで
【Midjourney】AI関連総合6【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1664642254/
ここは純粋に技術の話だけのスレ 破綻の少なさと、既存のSD,Waifuでは難しかった色んなポージングや表情がきれいに出せてそうなのが強いなぁ
Wairu1.3のepoch10で対抗できるところまで行ければ良いんだけどちょっと厳しそうなんでにんともかんとも NovelAI Diffusion、エロ絵までできるのか…
追加学習したい人以外はもうローカル環境いらなそう SDは人がちょっとでも傾くと途端に作画が安定しなくなるな
あと二人以上の人がなんかなんかやってるというシチュエーションも上手く機能するケースの方が少ない 文章を理解する能力と画像を生成する能力は別物だからね
そもそも「文章を理解」の仕様を定めた規格がないから未定義動作だらけだし
君がAIだったら「A dog is a cat.」のプロンプトにどんな画像を返す? しかし、勢いがほんとに以上だな。
MJがオープンベータに移行して、まだ3ヶ月も経ってないんだぜ。
SDなんか一ヶ月ちょいだ。 僕は ついてゆけるだろうか
AIが画像生成する世界のスピードに >>65
そういう問題じゃなくて単に学習データが足りないだけじゃないの
文章が表す概念と画像を連結させるのはCLIPが出来てる訳だし 今後はモデルデータのアップデートが重要になってきそう。トレンド取り込んでいかんと置いてけぼりなのはAIでも同じだし。 >>65
ちょっと関係ないけどcraiyonのころのredditで
「○○ but it's △△」ってのが流行ってたよ
https://pbs.twimg.com/media/FWpzOBwXoAAQmv1.jpg ニートだからクレカないんだけど
G PayでNovelAI登録できるのかな? PayPal使えるからそれでなんとかしな
銀行振込とかできたでしょ確か
月額課金でしかも海外だからプリペイドカードは怪しい ぐおお、Pay Palで払おうとしたら結局クレカの連結に促された。
ゆうちょ銀行じゃだめなのかあ
デビットカードなら作れるのかな
メルペイで調べてみます Vプリカを買ってPay Palに登録すればいいのか
明日やってみよう、待ち遠しい >>62
エロが絡むものはローカルで動かし、ローカルで保存しろ、というのが
我が家の家訓なので、SDにはまだまだ期待したい https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion
1111のTI試しに触ろうとしたんだけど、意味が全く分からない・・簡単に教えて
空の?embedding作るのとInitialization textやvectorはいいとして
Preprocessでたぶんtrainする画像sourceを512x512に成形したり反転してoutputに入れてくれるのかな?って実行したら
> File "D:\stable-diffusion-webui-master\modules\images.py", line 220, in resize
> assert len(upscalers) > 0, f"could not find upscaler named {opts.upscaler_for_img2img}"
> AssertionError: could not find upscaler named Real-ESRGAN 4x plus anime 6B
ESRGANのanimeのがない?なんでそんなもんが・・今関係なくね? ほんとAI作ってくれた方々と絵師の方々ありがとうございます あれ?output内に成形された画像ができてる
ちょっと意味が分からん、上の一旦なしで NovelAIってTrinartのキャラクターズみたくタグに忠実なんだろうか
それとも結構ランダム性でかい? novelって今までのツールに比べて手の描写が唯一しっかりしてる気がする MJとかNAIみたいな課金系AIは、人間の補助付き学習してるんやろな
それが手にも多少生きてるみたいな クローズドのNovelAIが1強すぎて技術面について語ることがもうなくない?
もはやプロンプトの工夫すら全くいらんし NobelAIどうやって手の崩れ誤魔化してるんだろ NovelAIは言語理解のレベルそのものが従来とは全く違うな
複雑すぎる構図でない限りは言葉を普通に理解して出力してくる
もはや呪文なんていらない普通の英語でいい
それどころか極論単語1つでもいい >>89
NovelAI
https://blog.novelai.net/image-generation-announcement-807b3cf0afec
We’ve increased the CLIP token context capabilities by three, from 77 token to 231 tokens, giving you more space to craft your prompt than ever.
The Model has been trained without crops, which means now you can generate arbitrary aspect ratio images.
Lastly we’ve greatly improved the language understanding of the CLIP model.
・CLIPトークンのコンテキスト機能を3つ増やし、77トークンから231トークンに変更しました。
・このモデルは、切り抜き(クロップ)なしで学習されるため、任意のアスペクト比の画像を生成できるようになりました。
・CLIPモデルの言語理解度を大幅に向上させました。
そもそもSDのモデルをファインチューニングじゃなくて、ゼロから学習させてんだね
どういう構成なんだろう? 残念ながら公開されることはないだろうけど NovelAIは色んなオープンソースの研究成果をまるっと利用して
クローズドな商用サービスにしてしまったからSDの思惑は完全に外れた形だな
1111とかのフォークすらも参考にしてるフシがある
だからMJのファインスケールという謎技術だけはパクれていないが。。。 >>94
StablityAIは、基盤モデルはオープンソースであるべきって考えみたいだから、
それを利用した個別のプロダクトは自由に作ってもらっていいのかもしれないね
作ったモデルをオープンにしてくれるところが多ければその方がいいだろうけど、
資金回収の目処がたたないから最初からモデル作らないってなるよりはいい
競争になるしね 計算資源をみんなで出し合って学習できたらオープンソースでこういう企業にも対抗できるかもね
WDとか一人でやってんだろ? クローズドだと関わる人間が少ないから、魅力的なオープンソースには発展速度で絶対に勝てない。ソースはGoogleってのがSDの根本にあるみたいだね。 >>97
確かに
ビットコインのマイニングみたいに、みんなのGPUを使った分散学習とかできないのかな
今の画像生成AIの勢いなら参加する人多そうだし、手作業の画像のタグ付けとかも必要ならやる人多そう
まあ学習対象の権利問題がクリアなら、だけど >>99
>手作業の画像のタグ付け
WDの公式ディスコでこの類のことは既にやってんだよな
特定のDanbooru画像に対して説明を付けてくっていうの。あんま進んでないけど。
https://gist.github.com/harubaru/1de70a00d3fdcf2344dfc3cd63554e02 >>97
クラウドマイニングのような形態のプラットフォームを誰かが作れたら流行りそうな気はするね
ただその作る人はクラウドで学習させるソフトウェアと最新の画像生成の学習知識と何を学習させるかの判断が必要だろうからむっちゃ敷板高そう ネットを介した並列学習はほぼ無理
データのやり取りに時間がかかりすぎる >>102
じゃあクラファンぐらいしかないかなぁ
WDの人がやるなら俺は払う オープンソースの基盤がSDで最後って訳じゃないだろうし、
今の速度だと暫くすればNovelAIですら過去の物になってる可能性もあるな 便乗してダンボールを使ったAI作ってクラファンしようかな
投資してくれた人だけにローカルモデルあげるとか >>103
開発者がpatreonやってるから是非投げ銭してあげて みんなでSD用にGPUのスキマ時間共有しようってプロジェクトはどっかでやってたはず
日刊画像生成AIさんの先月のどれかの記事で見た記憶はある CETI@moeみたいな感じか。探すのは宇宙人ではなく非実在美少女みたいな。 タンパク質解析の分散コンピューティングにFolding@homeとかもあったな >>90>>92ありがとう!やってみます
2行書き換えるだけでいいのか… 通信による同期を必要としない分散学習の方法もあるけど
個人レベルで開発できるもんではないだろうな >>110
一応会計報告らしきものがディスコのファイナンスタブに乗ってるけど、そんだけだね エロへの欲求がいろんな家電製品やインターネットツールを進化させてきたからね…… 1111のTIでなんとか学習できたんだけど、独自のckptでもできるのかと思ってたら違って
txt2imgタブでいきなり<Initialization text> by <embeddings名>使えるようになってて驚いた
つか逆にこれってどこで止められるの?なんで動いてるのかよくわからない・・・ novelAIとSDでここまで精度に差が出るのは使ってる言語モデルの違いがおおきいのか?
それとも最初から2次に限定したせいなのか
そもそも言語モデルに違いがあるとするならWDがいくら学習させても限界が来てしまうのでは >>118
./embeddingsに置かれてるptファイルを読み込んでる
今のところサブディレクトリは見てないから適当なフォルダ作って放り込むか、別の場所に移動させれば良い
たぶんCreate a new embeddingのとこでCreateした時にここに作ったぞってログ出てたと思う >>119
NAIも同じdiffuser使ってるから、モデルのバイアスの差だろうね。
多分、特定の目的のためだけに特化してSD系は全部切り捨ててると思う。あの馬に乗った宇宙飛行士が出るかは興味深いところ。 >>120
ありがとう、なるほど・・
名前変えればいくらでも置けそうだね AUTOMATIC1111のTIもなかなか面白いんだが完全に話題かっさらわれてるのよなー
Preprocess imageでAdd captionにチェック入れると自動的に入力画像にタグ付けされてそれを元に学習してるから、
Trainingに入る前にその名前を自分の意図するところに調整加えることでもう少し良く出来そうとか、
過学習しないのはどの程度なのかとか、Learning rateってなんぼ位が適切なのかとか
色々話したいんだが TIって一回一回が長いから気軽に試せない
dataset directoryに追加して学習継続できるの?その場合は前回やった奴は外す? 続きからやる場合にデータセットから外すのが正解か、新しいの入れてどうなるかはまだわからんが、
前回完了した続きから開始したいなら同じ設定でMAX stepsを大きくして開始すると前回の最後に作成されたところの続きから学習開始するのは確認した あとTIの結果でたまに変な絵が出力されるの、
textual_inversion_templates\style_filewords.txtから不要な語句消して学習させれば良くなる気がすんだよな
ここも内容調整次第で良し悪しに関わりそう
今のところa clean painting of [filewords], art by [name]があやしい NovelAIがあまりにも版権そのまま出るから1111のTiがもはやいらん子に、、 TIはどっかがまとめてくれるのを待ってる
WD1.3が来た頃に試してみるわ Gigazineはよまとめろや
おどれらどうせこのスレ見とんやろが
はよ仕事せえや 差を付けられ過ぎて本家SDやwaifuの開発が止まらないか心配だな
クローズドで独占は最悪だから何とか対抗してくれ 百合えっちなやつ作ってるけどなかなかいい絵が出ないな… NovelAIに対抗してWaifuの人がやる気出して1.3作ることになったと聞いた(ソースらはえろスレだけど) waifuの人、disco見る限り絵の質よりトークン制限が増えたことに興味持ってるみたいだった Waifuの中の人、ツイッターでWDについてもちょいちょい宣伝してるんだけどいかんせんフォロアー3桁とかであまりにも影響力が小さいのだ・・・ >>128
そのnameってembeddingのファイル名を入れるでいいんだったけ? >>137
Training処理時に自動で置き換わってるからテキストファイルの[name]とかを手動で置き換える必要はない
実際の処理上で、[filewords]はDataset directoryに置かれたファイルの名前、[name]はEmbeddingのファイル名に置換されて学習してるのはそうみたい >>138
なるほど、テンプレートファイルの内容次第で全然学習結果変わるらしいが
情報乏しいな、みんなNovelAIに夢中か 自作の画像じゃないものを学習した結果はおいそれと出せないってのもあるから中々ね
自由に使える&ローカルで動くって意味で個人的には可能性の塊だと思うんだがなぁ ううむどうやらテンプレートファイルの中のプロンプトの情報自体も学習されて取り込まれる感じらしいのか?
a portrait girl [name]だと学習元画像以外にもポートレート写真のスタイルが学習されるだから人物の顔と認識させて学習出来る
ここに複雑なプロンプトを入れることである程度望みの出力に近づけることが可能だけど汎用性が減ってしまう
キャラの顔だけ学習させてるのにプロンプトにdressと入れると服装込みで覚えて服装変更しにくくなる、みたいな
奥が結構深そうだな、あと1週間早ければ色々みんな遊んだだろうな Novelローカルで使いたいな…いや贅沢な悩みなんだけど 学習させるには金がかかるからな
そして実写と乳首は除外方向・・・ noveaiでもdalle2には全く追いつけてないな
圧倒的すぎる
一枚150円だが☺ https://twitter.com/soumithchintala/status/1576989659074154496
https://github.com/facebookincubator/AITemplate/tree/main/examples/05_stable_diffusion
Facebookが、AITemplateという高速化な生成エンジンをリリースしたらしい
A100(40GB) 17.5 it/s → 42.45 it/s
3080(10GB) アウトオブメモリ → 24.51 it/s
2.4倍速いけど、比較対象になっている元のSDは多分公式なので、既に高速かされているAutomatic1111と比べると2倍程度?
また512x512画像生成が、3080でアウトオブメモリというのはちょっと意味が分からない
https://twitter.com/5chan_nel (5ch newer account) >>139
元々ここはTI/DBの話できるやつおらん
ギガジン教えてとか言ってるやつらだし Toはだいぶハードル下がったけど自分で学習させるだけのハードはそうそう揃えられんからなあ。colabさんも規約改定で従量制になっちゃったし。 NovelAIって出力に一貫性がある代わりに同じ指定ならみんな同じ顔になるんだな
制服で黒髪とか指定るするとseedが違おうがなんだろうが同じ顔になりやがる novelAIはあくまでも、自分の小説の挿絵を作るのが主目的で絵そのものを作ることが目的ではないからね。 学習元とタグ付け厳選して安定させてるんだろうなとは思う 同じタグだと同じ感じの顔になるように設定することで、同じキャラの異なるバリエーションになるように見せている。
そうすることで、自作小説の同一キャラのいろいろなシーンのイラストを生成することが出来るような錯覚を演出している。
が、その代償としてキャラの幅はかなり狭い。
絵を作ることを目的にするには、案外微妙なサービスかと思う。
まあ、そこが目的じゃないから問題ないっちゃないんだが。今のところは。 >>145
元々公式の初期のdiffusers使うと512x512でもVRAMは12GB要るんじゃなかったっけ
なので3080 10GBではOOMとなる
ここだと最初からbasujindalの省メモリフォークとか使って何とかしてた訳で
それから高速化も経てるので指摘の通り今使われてる市中で改造された版と比較すれば2倍速くなればいい方だろうね ステイブルデフュージョンってローカルに入れて処理しても
元画像や処理結果画像は勝手にサーバーに送られるのかい?
自分の元絵とか利用されたくないんだが。AI使用しておいて何だが >>154
ローカルに環境組めば完全にローカルで動く
心配なら環境組んだ後にネットから切り離せばいい
それでも動く 学習元画像を相当に絞り込んで統一しているな
構図も背景も顔も塗りも全部同じような奴ばかり出る Midjourneyにて、画像が作れなくなった。
作成予定の画像は10件になっているけど、作成されていかないから、新しい画像を作れない状態になっている。
作成予定の画像をキャンセルする方法はありますか? よくわからんが1111ニキならきっとどうにかしてくれる >>158
どうでもいいけど最近は元大統領が開発してるんだなw >>157
昨晩、総合で見たけどずっとそのままなの?w
/infoはどうなってる? NovelAiもやっぱり複雑な絵は理解できないみたいで
俺が普段描いてる絵を読み込ませてimg2imgすると滅茶苦茶になるわ
AIが無理なく描けるような構図/服装の絵でないと理解できなくてリペイント出来ないのな 最悪やgooglecolab全部ポイント制の有料になってるやん今月の金返せ エロスレ民はもうckptブレンダーの領域に到達しとるw >>162
i2iは想像力を制限されるよな
t2iは想像力を刺激されるが i2iも元絵からちょっと離れたpromptぶっ込んで強めのSTでループすれば結構面白い感じに変化する。
元絵の構図を残すのはほとんどムリだけど。 このまま進化していくなら趣味だけでも一生ついていくと思う
規制は最悪趣味は許して欲しい後旧googleのような使い放題月額GPUはよ novel来てくれてよかったgoogleも5000円で使い放題だったらよかったのに何するにも楽しい 後は追加学習データで自分でキャラ突っ込めたら最高なんだが 1111アップデートしたら構造が変わったのかESRGANが消えちゃったんだけど
Put ESRGAN models here.txt
に置くのってなんだっけ? >>171自己解決
①stable-diffusion-webui-master\venv\Lib\site-packages\realesrgan\weights
に入ってるpthファイルを
②stable-diffusion-webui-master\models\RealESRGAN
に自分でコピーしないといけなかった?
勘違いしてESRGANの方見てたりしてsetting変えて再起動とかもはさんだのでよくわからん
あと>>79はいまだに治らない
学習画像のサイズすべて間違えずに512x512にしておくと出ないけど
自動サイズ変更してくれようとするタイミングで、ありませんエラー
②にちゃんとRealESRGAN_x4plus_anime_6B.pthあるのに・・・ NAIは違うseedとプロンプトでも全く同じ構図を髪型だけちょっと変えて出力するとか平気でやるから
そのうち似たような絵ばかりになってパクリ論争も起きまくるんだろうな
流石に絵の出力の幅が狭すぎるな そうしないと挿絵として使えんから、しゃーないんや… NAIはいくら人間レベルの絵を出すからってAIバッシュみたいな用途に使うと
構図も顔も固定だから見慣れている人には一瞬でバレるな
自分で生成してても何回同じ絵出すんだよ!ってイラ付くくらいだからな 厳選学習の弊害か
ごっそりプロンプト変えて同じような命令できれば違うんだろうけど Danbooruだけで何百万枚も絵あるはずだけどそれでもこんなアウトっぽい絵生成しちゃうんだな NAIはnegative promptでやってるって言われてるね
あとはモデルがでかい Negative promptだと元絵混ぜずにそのまま出しちゃうんだ
どういう仕組みになってんだ? 1111 image2imageで出力できなくなった・・・
txt2imgはできる・・・・ >>179
急に大規模になったな。アラブの石油王からでも支援受けたのか? 案外、EmadがSD1.5のカナリアというか身代わりとしてWaifuに金を出して煽ってるのかもしれないw 特定のclpt読み込みってどうやるんでしょうか
無料colabでhentaidiffusion試したいけど、パイプラインつなげてもオーバーフローで怒られてうまくいきませんでしたし、あってるかすらわかりません… 7GBのはメモリ足りないから繋げても完走しないよ。
4GBか2GBのckptファイルに繋げよう。 NAIの絵、いちいち乳がでかい。
つつましく、しかしそれなりに主張しているレベルはどう指定すればいいのだ >>190
そのprune.pyって汎用?それともWaifuのみ? >>192
そうなのか、ありがたい。pruneモデルがマグネットリンクしか無くて敬遠してたんだよ
torrentはなんか使いたくないし
>>193
功労者の一人だな。waifuはわしが育てたって触れて回れ waifudiffusionをパイプラインつなげて探してるけど、colabのどのフォルダに入ってるかにらめっこしてるけどわからん… パイプラインで繋ぐヤツはckptじゃなくてdiffuser用の解体済みモデルセット群だから探しても見つかんないぞ >>197
Servers are experiencing a small issue. The team is actively on it!
Thank you for your understanding.
落ちたみたいね NovelAIってERNIE-ViLGみたいなもん? サーバーの弱さは致命的だな
ちょっと集中すると落ちちゃうのはみんなが飽きるまで待つしかないのか NAI日本の集中時間帯だね
MJなんかはアメリカ人が多かったのか朝方よく落ちてたけど まあ溢れるほど金は入っただろうからサーバーの増強はそう難しくないでしょうね
基本有料なのもそこは有利 けどnovel AIって基本的にお絵描きサービスじゃ無いから、根本的なとこでズレがあると思うんだよな。 NAIのネガティブ
lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry
https://twitter.com/echiechi_2022/status/1576942577302925318
https://pbs.twimg.com/media/FeJretUUUAA7F2U?format=png&name=orig
https://twitter.com/5chan_nel (5ch newer account) Google Colab上でStableDiffusion WebUI(AUTOMATIC1111)を動かそうとしたら
AttributeError: module 'functools' has no attribute 'cache'
で動かない
なにこれー
さっきまで動いてたのに >>208
それより1.3が1.2より劣化してるのが気になるんだが >>50
コップをひっくり返すという偉業を達成しましたッ
1) https://imgur.com/AVwq82G
[DALL-E] "an upside-down glass which captures curled white smoke within it, placed upside-down on a wooden table, centered, realistic
これはたぶんひっくり返っている。美しい。でも煙が邪魔でよく見えない。
2) https://imgur.com/JqtEuE6
[DALL-E] "an upside-down glass, placed upside-down on a wooden table, centered, realistic
煙を消してみた。微妙に歪んでるような気持ち悪さがあるけど、これは確実にひっくり返っている。
upside-down を prompt 内で2度使ったのが功を奏したのでしょうか? >>211
いや8エポック進んだのに劣化するのはおかしくないか?
10エポック目で突然覚醒するのか?どういう理屈なんだ 1.3は虹絵統一と多アスペクト比対応そしてキメラ化の抑制が目標。
大きい解像度で出すと1.2より飛躍的に奇形度は減ってるよ。 >>212
報告乙w
DALLEは一番プロンプト再現してくれるからまだね・・
MJとかだと絶対不可能、SDは中間くらい >>207
なんG野球しか興味ない思っててノーマークだったわw >>182
1111 image2imageで出力できなくなったの
再インストールしても直らない・・・
こんなエラーです
RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.cuda.HalfTensor) should be the same SDは取り込んだ線画は崩さずに色だけ塗ってくれる機能はないのかね
線画そのものを変えられるとオリジナリティも糞もなくなる >>217
すみません、自己解決しました!
1時間前に修正アップデートがありました 最近、1111使い始めたんだけどブラウザ閉じるたびに設定が初期化される
どこのファイルいじれば設定持ち越せるようになる? WD1.3は手足の破綻減る代わりに絵の質自体は明らかに悪化してるんだよな
NAIはその路線を極端に突き詰めた感じでプロ並みの体が出る代わりに失ったものも大きい >>224
WDは極端にアニメ顔しか出なくなったな
SDと混ぜたほうがいいかも 画面状態の復元機能作ってくれそうな人はいた
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/1651
Automatically save and restore last session parameters #1651
> I might make a pull request for this if you guys agree with this feature エロ絵とか指定してないのになんかNSFW判定の真っ黒画像ばっかり出てくるなあ
NSFWってエロ以外にグロとかも含むんだっけ?それも指定してるつもりはないんだけど 単純に肌色面積でも蹴られるっぽい。黒解除して同じシードで回したら、ただのポートレートが出てきたことあるし。 なるほど、雑に過剰反応されてるのかなサンクス
ColabからGoogleDriveに直接出力してるから、念のためNSFWもそのままにしてたけど、
そんなイラスト風画像を生成して保管するだけで流石に垢BANされるようなことはないだろうから、怖がることもない…よね?
黒解除しちゃおうかな 正直、意図的にエロ作ってるのでも無い限り解除して問題無いと思うよ。 こうしてみるとNAIは明らかにエロ特化学習させてんな >>232
ありがとね、今日帰宅したら早速解除試すわ >>218
自分も、Stable Diffusionで写真を絵にできるかなと思ったことがある
でもそれはStable Diffusionでできることとは少し違うんだね
線画の彩色はたとえばこんなサービスで
Petalica Paint -線画自動着色サービス-
https://petalica.com/index_ja.html Stablediffusionのimg2imgは元の絵は基本的に破壊されるから。
なんちゅうか、全部をコントロールしたい系の人には向いてない。 素人質問なんだけどDreamBoothで版権キャラの学習させたい時って
いろんなポーズの色んな絵師の絵の方がいいのか
同じようなポーズでも公式絵使った方がいいのか
どっちの方がいいんですかね 同じポーズばかりだと同じようなのばっかり出るからなるべく違うポーズあった方がいい Waifu Diffusion 公式discordに日本語チャット欲しい……欲しくない?
日本人どれだけいるか知らないけど英語だと興味持った日本人が離れてしまいそうなのだ TIの方のノウハウになるけど絵師は統一してポーズはバリエーションあった方がいいけど範囲(顔のみとか全身とか)は統一した方が良さそう 日本語や中国語や韓国語があるだけでbanしてくる自治廚もたまにいるから
ギャー人の有色人嫌いと一緒だけど、英語くらい勉強してこいっていうのは多い 結局ある程度英語読めないと情報追えないってのもあるから、
WaifuのDiscordくるくらいに興味があるなら郷に入っては郷に従えってことで英語コミュに混ざってくのが良いとは思うって気持ちと
昨今の世間の雰囲気から下手に日本語で会話できるトコが作られると日本側から厄介なのが来て暴れてチャンネル全体に迷惑を掛けてしまうのでは、という気持ちがある
一応、SD training LabsってSD系のモデルtrainingに関するDiscordには日本語のカテゴリとチャンネルも作られててそこはまぁ穏当な感じではあるのだが。 英語だけならともかく、数式飛び交いだすとさすがにさっぱりわからんw 英語の語彙もさながら助詞とか指示代名詞の勉強めっちゃしてる気分w
これの使い方で精度、全然ちゃうもん。 なんか楽しそうだからワイも始めるわ
お前らよろしくな なんか英語がよく理解できるようになってきた(気のせい) エロスレが活発で技術的な話題も普通に出てて、一方ここが落ち着いてきているね
分家を出していたら本家が細ってしまった雑誌みたい(アスキーとか) >>252
そもそもエロスレと兼任でしょ
あなたもわたしも そもそも自動翻訳AIにおける革新のお陰でSDが産まれた訳だが、
それを使うのに英語の勉強してるのは何とも皮肉な話だな 質問させて下さい。自分はこちらのサイトで「automatic1111」を使用しております。月曜日は安定していたのですが、昨日今日でUIが不安定になりました。なので月曜日の状態に戻したいなと考えております。(新しいUIであれば月曜日じゃなくても構いません)。調べたところwebui_branchの入力欄で、「mastar」の文字を変更すればいいといったことがわかりました。しかし、何と入れれば良いか分かりませんでした。お忙しいところ大変申し訳ありませんが、なんと入力すればよいか、ご教授いただけると助かります。よろしくお願いします。
https://zenn.dev/ddpn08/articles/stablediffusion-webui-colab >>259
仕事中で忙しいけどいまトイレでウンコ中だから回答を。
master以外のブランチは多分普通には使えないやつなんで、masterブランチ以外に指定しても意味がないと思う。
過去のバージョンに戻すには、本来tagでバージョン管理してくれてたりすることもあるけど例のリポはtagを全くつけてないのでtagから遡ることも不可能。
というわけで、Pull requestのところ見ながら問題なさそうなコミットを見てshaを調べる。
「commit 適当な英数字」という監視で書いてある。
その後、git cloneしたあとにgit checkout (sha)をすれば過去のバージョンに戻れるはず。
ただそれがそのcolabのやつでいけるかわからんので、一応参考程度にとどめてくださいw
参考リンク
https://qiita.com/samurai_runner/items/7812749493554208aeae
月曜日付近のコミットの一例
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/1525 gitなんて趣味で使ったくらいで最後にまともに触ったのが5年前だし違うかも waifu1.3も出力の多様性は大幅に犠牲になってるな
1.2は暴れ馬みたいにコントロール難しい分稀に奇跡の一枚が生まれたけど
1.3では無難な判子絵オンリーだ WD1.4とかが完成したらかなりNAIに近づくだろうし単体でのバリエーションはかなり減るだろうな
ある程度モデルの学習が進んだらそれをブレンドしていくのが主流になりそうな予感がする ぶっちゃけSD1.5の方あんまり期待してなかったけど
waifu1.3が不穏な雰囲気出してるからマージ用として期待し始めてる ベースとして無難な二次絵が出力されるようになったら他の特化型といい感じに混ぜれば良いってのはまぁ何度か言われてきたしね
1111版に手を出しやすいTIが実装されたお陰で頑張れば自分で特定の方向性をもたせたptファイルも作れるわけだし精度重視なのはそこまで悪いことでもない Tiはモノや人物の情報覚えさせるには根本的に向いてないと分って来た
顔だけ学習させようとしても構図や服装や体型その他余分な情報も学習されるから
それが混ざって破綻した形になる確率が圧倒的に高い
だから特定の絵師の画風をパクるような用途のほうが向いている酷い使い方だけど TIで学習した余分な要素はネガティブプロントプトで排除できたりできなかったり >>269
知る限り無い
みんな今はえっちなやつに夢中よ エロスレ住人ならエロ絵の背景用として風景も受け入れてくれる(はず) NAIは高解像度にすると一気に1111+waifuよりひどい破綻するから
新規技術とかじゃなくて力技で絞り込んだ絵を特化学習しまくっただけっぽいな
多分512×768とかの固定の画像サイズで学習しまくってる エロ系でも参加者全員全裸のコミックマーケットとかそういうのが見たい
pixivで漁ればいくらでも見れるような絵見てもつまらんよ つうか1111の開発者が日本人の有名絵師やVtuberをTiしたファイルを配ってんな
流石にやり過ぎではと感じるが、、、 >>277
アス比調整無しでやってるとか言ってたぞ
あとはテキスト認識する側もSDそのままじゃないんで伝え方がかなり影響ありそう >>278
以前エロスレで夜の東京を練り歩く全裸の女の集団とか作ってアップしたりしたで エロ以外のAI画像共有とプロンプト研究ができるスレ欲しいね
最近はイケメン生成して遊んでるけどエロスレではお呼びじゃないだろうし…エロの有無を問わず 3DiM 1枚の画像から3Dモデルを生成できる https://3d-diffusion.github.io/
自動車の絵から3Dモデル作ると、後ろに全く見えてないスペアタイヤがついたりするらしい
https://twitter.com/MobileHackerz/status/1577459855505645569
これができるなら破綻しない人体の構造ぐらい余裕でできないの?って気がしてくる
https://twitter.com/5chan_nel (5ch newer account) >>283
本来それがここなんだけどなw
でもエロ以外はみんなtwitterで発信出来ちゃうからね
わざわざこんなところまで来ないんじゃないかなw >>284
スカートの中身わかるようになったら導入するお まあ、総合スレがごみば、、、雑談所になってる以上
ここで非エロの呪文研究する感じでいいんじゃないかな モデル公開されないNAIが1強すぎて技術について語ることがなくなった そもそも技術を語ってるやつなんかいないだろ
使い方を語ってるだけだ ところで、NAIのimg2imgてなんかプロンプト書くの?
Twitterみてると粗い絵を入れてこんなの出てすげーってやってるけど Discordのサーバー作ったんですが入る人います?
使い方はここと変わらないことになりそうだから意味ないかもですが >>291
日本語で記名で話せる場所は欲しいから意味はあると思う
話題をスレッドを細かく分けられるし
人がどのぐらい来るかはわからないけど 技術だけじゃなくて、出力した絵を共有する場も欲しいところ
エロスレが活発なのはエロい絵を共有して、それどうやってんの? ってなって、そこからこういうのがあるんじゃよってなってるのが大きい。
ただ、エロではない出力絵にそこまでの駆動力があるかはちょっと疑問だけど imgurなどでの画像の貼り方もまず知らん人いるからね url何回も貼るとNGされやすいプロバイダーの人もいるしな >>283
元々はDALLEやmidjourneyのプロンプト談義しましょうってのがこのスレの始まりだからここでやっていいんだけどね
> 与える英文の情報共有等できたらいいな、と考えています
いつの間にかSDのローカルやcolabのインストール系情報スレになっちゃって妙に場違い感があるという謎 サーバー立ててみました
興味あるなぁ…という人は参加してみてください
https://discord.gg/fjRzSU5RCS デスコはアニメでもロリエロ画像貼ると怒られるので注意だぞい >>298
あ、ホントですか…
ロリエロはやっぱあれなんですね 学習元云々に関しては法律整備されるまでどうにもならんからやったもん勝ちだな
Waifuの人は楽しいからやってるだけだと割り切ってnovelレベルを作る気満々だし
違法転載サイトからデータ取って有料が気に食わない人が一定数いたけど無料でばら撒かれたらそれこそ終わりな気がするんだよな wd1.3e9いじってるけど難しいな
モデルが変わるたびに呪文の傾向が変わるし
ネガティブとの兼ね合いとかも考えなくちゃいけないから
特にSD由来の要素に頼った呪文が壊滅や 動きが激しすぎてだんだん追ってるの疲れてきた、ちょっと距離置こうかなぁ
といいながら鳴り響くTI中のGPUファン音 >>228だけどNSFW解除したら快適になったわ
やっぱエロ絵とか出てないじゃん、と油断したところになんか突如ふんどしマンが差し込まれて草生えた
ちゃんとNSFWも紛れ込んでたようです 1.4思ったより速そうなんで、1.3はあまり追い込む気になれないや。
めちゃくちゃ欲張りな目標書いてるし。独自の表情や仕草もパラメータとして追加するとかトークンは200以上まで引き上げるけどもしかしたら無制限とか。
今までのコツは全部吹っ飛びそう。 1か月前のぼく「何でもグレッグさん入れとけばええねん」
wdべーた「グレッグさん忘れました」
涙目や 1.3 e9にしてからなかなか思った通りのモデルが出ない…
やはり秘伝のタレを作るしかないのか WD1.3は語彙がdanbooruタグの索引に置き換わっちゃった感じ
WD1.2はSDの世界がまだ残ってたからそこそこ自然なプロンプトにできてたんだなと とかく視点の制御が難しくて、背景に負けて人がどこにもいないとかいう画像が頻発する。 あとガチガチに背景指定しないとすぐ宇宙空間とか変なエフェクト空間に転移するねん
danbooruの絵が背景をさぼってるのが多い影響だと思う。つらい wd1.3の難しさ考えてみたんだけど
SDとかwd1.2に比べると、相対的に汎用モデルでなくなってしまった分
モデルが得意なシチュエーションから外れると途端に破綻する現象やろな 海外の開発者的にはテンプレ二次絵を綺麗に出せることに至上の価値を感じるのかもしれないけど
実写や古典絵画とかの要素を盛り込める幅のあるモデルのほうが楽しいし使い道もあるんだけどな やっぱりみんな今のWDの傾向には不満なんだね
というより、1.2が何気に汎用性も高くて使いやすかったんだよね
1.3はイラスト特化っていうわりには、身体だけ3Dなのに顔だけのっぺり2Dみたいなキャラばかり出て萎える 今大評判のNovelAIでさえ、オタコンテンツ以外のキャラはSDと同レベルだね
それどころか無関係ものでもなんでもかんでも全部判子絵にしてしまう
特化型の弊害かね
やっぱなんだかんだでSD本体の総合力を上げてもらうのがベターなんだろうけど、1.5はいつになるやら 今の技術だと応用力と安定性はトレードオフなんだろうか >>316
学習データをリアルと二次絵を豊富に使って一から学習すれば普通に行けるんじゃないの
本家SDの真似事すると億単位のお金かかるから誰もやらないだけで 今も導入ってgigazineの
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/
この記事のwindowsで動かすの項目通りにやって大丈夫?
どうもwebui.batを実行してもエラー吐くんだよな。以前に
https://note.com/uunin/n/n725ae4601264
ここのツール使って導入してた(動作してた)からレジストリが変なことになっちゃったかな。 どんなエラーかわからないけど
webui-user.bat にPythonのパスが書かれてないとか? >>318
なんで馬鹿はエラー内容言わずにエラー出たしか言わないんだろうな?
てか、自分で解決できないのに余計な環境構築をするのが間違ってる
わからないなら素直にそのままwindows上に構築しろ >>318
noteの解説が悪いとは言わんけどGitをブラウザ翻訳で日本語化してる人を信じるならよそ見しちゃだめだよ
他人に聞かないと他の環境作るかどうかも判断できないなら、まずは関連ツール一度全削除して再構築かクリーンインストールまで覚悟しないと。
gigazineのインストール解説読んで何が違うのか理解できてないからここに来たんでしょ?
まぁこれだけやり直せば普通は動くけど↓・・・あとは手動更新だと漏れが出たりしやすいのでGitでちゃんと更新するとか?
https://i.gzn.jp/img/2022/09/07/automatic1111-stable-diffusion-webui/23.png あらゆる絵柄を再現するにはあらゆる絵柄を英語で表現しないといけない
頑張って画風や技法の英単語を覚えよう Googleがimagenを使ったハイクオリティのtxt2videoを発表
https://imagen.research.google/video/ >>324
リロードするといろんな動画が確認できる >>322
わかりやすくと思って日本語翻訳したスクショにしたのだけど、印象良くなかったのだね... git導入とトラブル時の対応含めて完全初心者ではないから
初めてSDやりたいぜの人はまずはHuggingfaceへのデモと単体で動くやつを試して欲しいとは思う waifu1.3は1.2の良さが全部失われてただのNAIの大幅劣化版になってるな
SDの学習内容殆ど忘れてしまってるみたいで背景まともに描けなくなってるし
体や髪の繊細な表現は全くできなくなった あら? 1111がpullしたら、いきなりtxt2imgも動かんようになってしもうた。
AttributeError: 'NoneType' object has no attribute 'groups'ってパターンマッチ系のエラーっぽいが…… 自己解決。prompt内での改行がつかえなくなってたわ……
見づらくなるなあ…… automatic1111版、
https://energy-based-model.github.io/Compositional-Visual-Generation-with-Composable-Diffusion-Models/
ここで提案されてる大文字AND記法が使えるようになったっぽい。複数のオブジェクトを描かせるときに色とかが他のオブジェクトに漏れたりするのを防げるようだ。
DDIMとPLMSでは使えないみたい。 NAIのimg2imgに自分の絵を入れると崩壊してガタガタのボロボロになるから設定の問題かと思ってた
ふと思いついて初心者の頃の下手な絵入れると同じ数値で滅茶苦茶上手い絵に変換してくれたわ
これ絵が下手な人ほど得をするサービスで真面目に腕を磨いて来た人涙目だろ、俺もだけどさ
いわゆる神絵師でも崩壊しない=テンプレ判子絵な人もいるけど俺みたいに独自性が強い絵はAIが解釈不能らしい NAIに関係なくそのモデルが持ってる範囲の表現しかできないぞい waifu、ep8になって1111のHighres. fixとの相性の悪さが顕著になってきたな……
たぶん512以外の学習が進んできたことで512前提のHighres. fixとかみ合わなくなって来てるんだろうが…… AIホテル「このホテルは5000万部屋あります」
人間「すごい!広すぎてまだ10部屋しか確認してないけど全部綺麗だ!残りの4999万990部屋も同じくらい綺麗に違いない!!」 今epoch9だけど、どこで完成にするつもりなのかな
10で終わりかと思ったら15くらいまで行くようなことも書いてあったし 過剰学習の疑いもあるし予定まで回していちばん良かったやつ正式版にするんじゃ? >>324
凄い!…けど天下のグーグルでこのクオリティか
動画の方はまだ時間かかりそうだな waifuは作者の感覚とか教師データの選別とかパラメータとかいろいろ問題があるんじゃないか
A100をいくつ集めてもこの辺変わらなければWD1.4もコテコテのハンコ絵モデルができるだけだろうな 自分の好き嫌いを問題だー!って大げさにするアホはどこにでもいる >>339
同じ感想だわ
なんか感覚マヒしてんのかね
去年出てたらSUGEEEEEEEEEEってなったのに すごさってのは実際に触ってみないとわかんないからなあ。
結局、今のAI画像ブームって自分で触れるからこそだから。 >>342
waifuは確かに現段階のEP9までの時点ではあまり良い感触はないなぁ
実験中なのか迷走してるのか >>330
prompt_parser.py L146のcompile関数の引数に
, flags=re.DOTALL
を追加で直る。
後で「git pullできなくなりました」とか言いそうな人は自分で直そうとせずにただ待つべし。 >>342
このスレでWD1.3の現状に満足してる人が少ないのを踏まえてそう書いた 古いモデルが消えるわけじゃないから好きなの使えばいいのよ
なんならオリジナルブレンドコーヒーしてもいい 不満があるなら1.2に居残るか、自分でDBすりゃいいのでは >>344
ほんそれ。
ツールなんて実際使えてナンボだよな
最低でも商用利用出来るようにならなきゃ意味ねーわな まあ一回めちゃくちゃアニメ寄りの学習した後でバニラSDと混ぜたらどうなるのかは気になるな 1.2と1.3を混ぜるとSDの特徴を残した良い感じのモデルができる 今、finalとtrinartのハーフ回してるけど今までの不安定さはなんだったんだ? ってぐらい安定してるw
縦長出すと真ん中あたりで腕が増えることがあるけど、これはモデルが原因か1111のハイレゾが原因か微妙なところ。 >>350
不満や感想を言ってはいけないのかい?
総合から人が流れてきたのか、ここも殺伐としてきちゃったねぇ。。。 >>348
すぐにアホだのなんだのと口にするような輩は相手にしないほうが良いよ
きっと余計に腹立つから ただ、やっぱ1111とのハイレゾの相性はあんまり良くないな。画面の真ん中あたりに顔とか腕があると乱れることが多い。
アプスケで大きくした方が良いかもしれん。 1111のscriptのPrompts from file or text boxってNegative使える? >>358
ソースコード見た感じ、ネガティブは元々あるテキストボックスに入れたものがそのまま使われるぽい。 Googleが公開したテキストから動画生成エグかった
少し前までfacebookが64×64の解像度で作ってたのにもう1280x768で作れるとか嘘やろってペース
まだ画像扱ってんのって流れになるのも遠くない
https://imagen.research.google/video/ テキストから何かを作成するって、たたき台を作るのにはすっごい良いんだけどそっから先をブラッシュアップしていく仕組みがまだ整ってないのがなー
まあ、時間の問題だろうけど 10年以内にテキストからエロ動画作れるようになる可能性か
未来は明るい 5年も経たずに2次元エロ動画くらいは作れるようになりそう
画像生成AIよりはかなり複雑だろうけど発達スピード見るとね 実写そっくりの動画が作れる!ってなら実写で撮ったほうが早いんだよね
なんて150年前も前に終わった写実ブームを再現してんのさ >>364
実写そっくりの『ありもしない映像』が作れる、だよ
3DCGも出てきた当初はミニチュアや特撮のほうが早いだなんて言われてたけど
今は大がかりなセット組んだりロケするぐらいならCGのほうが安くあがる
AI描画もいずれは同じようになるかもしれないね 俺はAIによる何かしらの生成には将来的には免許が必要になると思ってる
ありもしないものを一瞬で作れちゃうからこそ簡単に問題を起こせるわけだしね
こないだの水害の画像とか どっちにしても手元に降りてこないと絵に描いた餅だなあ。進化の速さも企業の思いのままだし 3DCGがどんどんいろいろなことを表現できるようになった結果、どんどん制御が複雑化していったようにAI生成でも同じことは起こる気がする。
それを上手いこと自動的にさせるのがAIだろうが、とはいうがどういう物を作って欲しいのかを事細かにAIに伝えるには結局絵コンテみたいなのが必要になってくる。
Pの仕事はあんま変わらんかもだが、下請けが消滅してクレジットに「全部俺」という日は結構はやく来そう。 したり顔で未来について語るくせに1も読めないとはな waifu1.3と1.2を混ぜたらいい感じになるかと思ったけど
1.2よりはクオリティが落ちる代わりに多少手足の破綻が減るだけだった
これなら1.2であたりが出るまでガチャしたほうがマシだな Waifu1.3とTrinは良い感じよ。お互いに無いところを補ってる感じ。 まず2つを混ぜる
混ぜたモデルともう1つを混ぜる
混ぜる順番と割合で出力が変わる lisaさんのdreamboothのcolab notebookがおかしいのって俺だけ? ANDのやつって前あったベクトル合成みたいなのと同じなのかな
犬が出力されるpromptとうさぎが出力されるpromptを合成すると犬とうさぎのハーフみたいな動物が出力されるってやつ waifu1.2は上手く使うと人間には描けないような繊細な絵が出るんだよな
当時はすげぇと思ったけど偶然の産物だったとはな 別の場所をそれぞれ描かせる分にはいいけど
中央に描かれるような主題同士をANDにしたりすると綱引きが始まって発散するか中間物ができる
もちろん出力がメタメタになる可能性があるというだけなので何事も実験だけれども ピカソみたいな絵が欲しいならANDで人物描かせるのもアリかもしれない これはそろそろdreamboothインターフェイスもauto1111に作られる流れか >>380
おっ、わいのPCでも動くじゃん
スピードも十分って書いてあるしいいじゃん このスレで多分話題になってないけどdiffuserモデルをckptに変換するスクリプトもできたらしいね diffuser版DreamboothではCLIPも学習する設定にすることで格段に精度が良くなるらしい sd-v1-4.ckptで「astronauts on the moon, Apollo project」を出すと有名な写真がそのまま出てくるんだけど、これも学習結果であって画像がそのまま入っているわけではないんだよね…?
Stable Diffusionの原理は理解しているつもりだけど、あまりに元の写真そのままだから心配になってしまった
astronauts on the moon, apollo project
Steps: 40, Sampler: Euler a, CFG scale: 7.5, Seed: 753336845, Size: 512x512, Model hash: 7460a6fa
https://i.imgur.com/E3KinjS.jpg >>387
画像が入っているわけではないが、
月面を歩く宇宙飛行士の学習素材が結果として乏しいことの反映がそういうことになっているのでは?
アポロ計画で月面を歩いた宇宙飛行士の学習素材なんて、他に無いし wd1.3betaが現状ヒットしか打てない子なので、これに頑張ってホームランを打たせるより
wd1.2=ホームランは打てるけど打率が低い子をひたすら回す方が効率ええな >>380
すげえスピードで進化してくなあ
半月くらい前まではTI、DBするには3090か4090が必要な世界だったのに >>375
昨日まではちゃんと動いてましたが、今見たら学習実行でつまづくようになりましたね >>387
バリエーションに乏しい&同じ画像が大量に存在するとこうなる
超有名で使い回されている画像はそのぶんURL違いで至る所に掲載されるんで
学習を進めるにつれ「Aと言えばB」を何度も刷り込まれる、結果として再現性も高い
世界的に有名な企業やプロダクトのロゴも同様だ
学習対象になってるか否かの差は出るけどな 特化学習で汎用性減る分品質が上がるなら分かるけど
waifu1.3は最終版でもやっぱ劣化してんだよなこれが個人の限界か 「昨日からおかしい「つまづくようになった」
こういう事象を具体的に書かない人の頭の中ってどうなってんだろう
嫌がらせ? クイズで人を試してる? >>397
プログラミング1ミリも分かんないのでコード見ても説明しようがないんですよ...
おま環なら放っといても治らないから諦めるしかないけど、notebookの問題なら開発者さんが治してくれるかもしれないからそれが知りたかっただけ 数年後にはstable diffusion も知能持って語り掛けてきそうだよなぁ >>399
ほほう、なるほどなあ。
ちょっと前に「エンジニアは問題解決したがる」とかいう言説が流行ったけど、そういう人からすれば問題解決したいから「エラー内容のコピペくらいしろ!」とイラつく。俺もだ。
だから「おま環か知りたいので同じ感じの人いたら教えて」とか書き足せばみんな幸せ、かも? 解決したいなら何をしてどこで詰まってどんなエラーが出たのかスクショ貼るくらいはしてほしいが
自分だけがおかしいのか知りたいだけなら別にええんちゃう 詳細が書かれててそれに対する対応が記録として残ってると、
後から同じ問題が起きた時に検索で引っかけられる可能性が出てくるので嬉しいのです
エンジニアはどこかの誰かが書いた問題とその解決までのプロセスの備忘録みたいなのに助けられた経験が多かれ少なかれあるので、
無理にとは言わないけど、気に留めてくれると嬉しい >>399
エスパーするとaccelerateのバージョンアップでバグってる
!pip install accelerate==0.12.0
こんな感じでバージョン指定しろ >388>394
なるほどなあ、ネット上のたくさんの場所で使われている画像だとこうなるのか
イラストと指定したらその有名な写真はあまり出なくなったけど、それでもまだイラスト化されて出てきた
https://i.imgur.com/NAa2d1t.jpg
プロンプトは↓に
https://imgur.com/a/Xxwsdqo
>8
negativeにmuseumを入れると絵が額縁に入ったり壁に掲示されたりしてパースがつくのがなくなった気がします
ありがとうございました >>260
>>267
返信遅くなり申し訳ありません!
試してみたところ行けました!!
90e911fd546e76f879b38a764473569911a0f845
をcolabの1.1のセル、webui_branch のmastar欄に入力したら動きました!月曜日付近のものでは動かず、「検証済み」と表記があるものは動きました。画像添付 https://imgur.com/a/zv9OLCG
最新版が不安定になりがちなので、動かなくなった方は是非お試しください
ノートはこちらの方のを使わせて頂いております。
https://zenn.dev/ddpn08/articles/stablediffusion-webui-colab
Googledriveに自動保存も可能でかなり便利です
皆様、本当に有難うございました AIに描ける絵描けない絵を調べた結果としてどうも言語理解が壁らしいんだよ
いくらでもサンプルがあるのに何故か描けない(指示を理解できない)絵がある
これはつまり言語解析のほうさえ進歩したらあらゆる分野で人間を追い越すってことを示唆してる Buffalo buffalo Buffalo buffalo buffalo buffalo Buffalo buffalo
数年後にこれ書いたらバッファローの地でバッファローに怯えるバッファローがバッファローを怯えさせる図がちゃんと出てくるようになるのかな 貴社に記者が汽車で帰社した
ってのは割と有名な日本語変換試験だったわけだけど、それみたいなもんか。 >>406
理解力に差はあれど、人間と同じよ
「月面の宇宙飛行士、アポロ計画」でどんな画像を思い浮かべますか?という事
ほぼ解釈の余地がないだろ?w
だからオフィシャルのアナウンス通り「主題以外にも細かく指定しろ」って話になる
よほど有名かつ固有で大量に流通している物以外でそのまま出てくることはまずないけどな どうやらdlsiteもpixivもAIを規制せず野放しにするようだな
同人文化はマジで終わったな >>410
結構な数の高学歴が入社試験に落ちてたよ。バブルの頃だけど。
次の文を日本語にしなさいで 「to be to be ten made tobe」 >>412
AIで二次創作すればいいだけじゃん
俺はもうAI修正の絵しかアップしてないわ
一度この方式に慣れると0から描くのだるいわ 1,2週間後ぐらいには1111でdreamboothできるようになってるんだろな
すげえ世の中だ
とはいえモデルが変わるたびにTI、DBやり直しなのはめんどいと言えばめんどいな 最新にしてる1111がぶっ壊れた・・なんだこりゃ
png infoからtxt2imgは送れるけど、img2imgに送ると
> File "C:\Users\○○○\AppData\Local\Programs\Python\Python310\lib\base64.py", line 562, in decodebytes
> return binascii.a2b_base64(s)
> binascii.Error: Incorrect padding
でerrorの赤文字だらけになる ANDのこともあるし、ちょっと落ち着くまではプルプルすんの控えるか。 あーわかった
ui-config.jsonを古いまま使ってると新しい設定が入らなくてなるんだ、たぶん
一旦消して起動して新しいの作らせたら>>417は治った
まだ試してないけど前に書いた>>79もたぶんこれだろうなぁ
エラー内容何か書け突っ込まれてた人たちもこれじゃね? 一定以上のレベルの絵をNAIに読み込ませてimg2imgすると大幅劣化するのだけはほんとズルい
他のプロ絵師はちょっと塗りが平面的になるだけ済んでる人も多いってのになぁ
俺の絵読み込ませると髪も顔も体も全部激しく劣化して初心者レベルに落ちるぞ
上手い絵はもっとアップグレードしろよ現状じゃ上手い人ほ損かよ >>79のTIのpreprocessのやつが治ったのも確認
しかしtxt2imgでHighres. fixにチェック入れるとやはり同じエラーが出る
img2imgのsd upscaleでReal-ESRGAN 4x plus anime 6B
(R-ESRGAN 4x+ Anime6B表記)は普通に動くのに、意味わかんない >>407
色々試したところ、
80c418c0d3f81c64ae8e620f020998d8b1c4c3d7
このバージョンが最も安定していました。三日前のものですね。
それ以外だと複数画像を生成する際に3回目以降、反応しなくなりました。
参考までに失礼します 1111でsampler増えてるけど、karrasてなんです? samplerの特性を一つ一つ理解して使ってるやつなんているの? X/Y plot使えば比較自体は簡単にできるけど、まあそこまでやるかっていうとね サンプラーで傾向があると言うほどの分かりやすい特徴も無いしなあ…
promptでコロコロ変わるし。
Eulerさんは低ステップでも結果あまり変わらんからぶん回すには向いてるぐらいで。 AND実装の影響か、今まで結構いい絵を出してたプロンプトが全然だめになった。waifu1.3は不気味などアップばっかり返してくるし、みんなはうまく使えてる? 使えてないよ
もう諦めてとりさんま115に戻ってTIしてる 9月のプロンプトのほとんどが違うもの生成してるわな
5chで書かれたトークンコピペで使って、sharpがshaprになっていたり確認せずにあいまいな指定をしていた自分が悪いんだがw 1.3ではdanbooruタグのアンダーバーをスペースにする必要があるよ。 Text-to-3DのDreamfusionをStable Diffusionで再現実装したリポジトリ来てるね
https://github.com/ashawkey/stable-dreamfusion もう訳分からんぐらい色んな技術が並行してハッテンしてる でも訳が分からなくて何が正解か全くわからない時期が一番楽しいよね 正直、ここで話されてる事の大半が分からなくてサジ投げてる
もっと他の3Dソフトとかが不要なくらいの決定版バージョンが出てきたら本気で勉強するわ
今は3Dの勉強で手一杯だし 来年ぐらいには、全くの素人がAI使ってジャンプで鬼滅並みの作ってそう AI使って漫画作ればタダで漫画が読めるのにジャンプなんか買う奴いるのかね WD1.3はプロンプトを大幅に変更しないといけないけど追い込んでも結局1.2には劣る
そもそも1.2は追い込めば相当いい絵出せたからな、正直1.3は失敗だと思う
途中のエポック05ベースに早々に1.4の学習始めるってことは本人も失敗自覚してるでしょ RTX3060のメモリ12GB版をゲーム趣味とSD、WDの遊びも兼ねて買おうと思ってる
RTX3060なら十分SDも遊べるよね?
ランク落としたメモリ8GBの3050じゃキツイ? >>437
ゴミを排除して修正する作業を代行してくれるんだから
なんやかんやで編集の仕事は残りそう マイナーな漫画アプリはすぐにAI使い出すだろうから
底辺の漫画家から失業していくのは間違いないな
今の時点のNAIでさえ人間が描くと1日かかるような描き込みのページが数秒で出力される
漫画特化のサービスが出てきたら99.9%のプロの漫画家は瞬間的に抜かれてしまう
今は絵師を馬鹿にしてるけど編集者の仕事しか残らないのは確実だよ いうて必ずしも編集者が話考えられたりAI上手く使えたりするわけじゃないし
売れるものを考えられて、AIを使ってそれを手早く作れる作家が得するんじゃないかな? WD1.3使ってるとたまに出現するリアルな目と唇と歯が気味悪くて困るわ…よーく見ると映り込んでて不気味だしマージした方にも出てくるんだけど
リアルな目と唇と歯をネガティブに入れても出現してくるんだが…なんかいい対策無いッスかね… 漫画は伸びんじゃねとは思う
多少雑でも重視されるのは話の面白さと早さだからライター一人からでも始められる >>445
うわ気持ちわり
realisticとかanatomyとかネガティブに入れてみたら?
強いてWD1.3を使う理由もないと思うけど AI漫画が乱立して面白い漫画見つけられなくなって埋もれるだけだよ
そもそも漫画の面白さは初心者が思うよりも絵の力に大きく依存している
NAIが出してくるコマの中には正直大御所作家レベルの力のあるコマがもう混ざり出してる >>445
実写用の顔補正機能をONにしてるというオチじゃなく、WD1.3だけで出るの?こっちは特に問題ないけどなぁ。 esgraみたいな名前の顔補正機能有効にしたままだとよくある >>447
>>449-450
顔の補正のやつのせいだったみたいっす!切ったら現れなくなりました!あざました! txt2img使うと新しい画像が表示されず固まっちゃって調べたら既に修正してるらしく
お手上げ状態だったけど>>419の試したら直ったわ
ありがてぇありがてぇマジ感謝 顔補正は副作用あるけど有用でもあるのでエロスレとかではネガティブにlipとか入れて
変な唇出ないようにしてる AI併用は妙手に見えて自分の本来の絵柄との差が悪目立ちするのよね そのへんは絵描きの脳みそに電極さしてAIにすれば解決するな Hi @everyone.
I just want to remind you all that this project has **nothing** to do with NovelAI. It didn't start because of NovelAI and it sure as hell isn't even related to NovelAI. I'm working on this because it's fun and I find advanced generative AI like these very interesting to work on. Hell, I would even say that I'm copying NovelAI's design for their model because their model is extremely good.
I'm not working on this for money and I'm not working on this for support or whatever. I'm just doing this because it's fun.
We just want to make really good models and make them open source and we don't want to have any bad blood with anyone in pursuit of doing that.
If it isn't fun, then why do it?
WaifuめっちゃNAI意識しててワロタw もうモデル混ぜるのが当然だからWDがNAIライクに進化していくのはいい傾向
画風買えたければ本家とかとりん入れたらいいだけだし NovelAIは非絵描きにはいいサービスだけど、整いすぎてて既存の絵描きのためのAIじゃあないんだよなあ
WaifuもNAI路線目指すのなら残念だけど個人の趣味みたいなもんだから何も言えない
レタッチスキルのある絵描きはSD1.5に期待するかWD1.2の可能性を掘り下げるかんじか オープン版のNAIみたいなのができたらその上でTIやDBできるからかなり価値がある
フォトショやkritaのプラグインにも使えるってことだしな >>462
dreemboothで学習させたやつもckptにできるしそれ混ぜるとかね dreamboothもtextual inversionも一貫性を持たせるのには使えるが広範な学習はできない AI絵が当たり前になるとライザがキャラデザ力でオワコンだったアトリエというコンテンツを復活させた
なんてことは二度となくなるけど企業は絵師クビに出来てウマ〜〜wとしか思わず突き進むんだろうな ありゃ? git pullして試験的に同じ条件つっこんだら別の絵になっちった。
なんか、出力系触ってたんかな? Settingsの方にもサンプラーのノイズ設定とかあるからなぁ
うまくできる環境は丸ごと残しておいた方が良いかもね ああ、その辺か。かもしんない。トン。
それはともかく、NAIのモデルがリークしたとかしないとかいう話になってるらしい。
ckptファイルは性質上、リスクは低くないので怪しげなヤツは触らないほうがいいだろうね……
https://www.reddit.com/r/StableDiffusion/comments/xxfrw0/novel_ai_models_allegedly_leaked/ 4chanの該当スレに貼られてる画像見ると本物臭いのかなぁ
magnetリンクだし何が混ぜられてるかわからん
あとNovelAIは裏でユーザーがよく使うプロンプト(ネガティブも)を調査して勝手に追加してる噂も
MJもやってるんじゃないか?って疑惑あったけど ckptファイルだったら1111にいれられるんじゃないか
ほっとけば勇者がウイルスとかも含めて検証してくれる ckptファイルって汎用的なPyTorchの途中経過ファイルなので
中に何入ってるか分からんしウエイトっていうニューラルネットの各点のパラメーターの集まりでしかないのよ
流出が事実だとして、実際に実行するライブラリの方にNAIが手を加えてるとそれでもう互換性が無いしそっちも必要になる
鉄砲玉みたいな奴が試すだろうけど
後ckptファイルを読み込むのは実質pyファイルを実行してるのと同じだから
中身確認せずに変な野良モデルを読むのはやめた方が良い 少し読んでみたけど
・少なくとも今のオープン環境では動かなさそう
・でもご丁寧にNAI改造版のStableDiffusionのソースもリークしてる(と主張してる)
・リークにくっついてるテキストファイルにはこれだけ揃ってるんだから後は自分でやれとの話が書いてある
・途中経過のモデルもあるのでNAIのサービス実行サーバーに侵入された程度の話ではない(リークが本物であれば)
・全部で50GBあるがモデルファイル1個はprunedで4GB程度とそんなに派手ではない 1111の15分前のコミットが「hypernetwork」対応…
NAIによるSDの拡張(?)として以前から出てきてた言葉だ。 AUTOMATIC1111版がNAIモデルに急速で対応してるね そう思う。
Unstable DiffusionのDiscordでAutomatic氏自身も「試した」みたいなことを言ってるしね。 どうもNAIの言う学習というのはWaifu式では無く、ITを大量に作りまくっていたとか。
もし、それが事実なら意図的な学習をやってるわけで、ダンボールがどうとか関係ねーw
そして、さすがは我らが1111w
とはいえ、さすがにこの怪しいckptを回す気にはなれんな…… >>483
TI?
やっぱり追加学習だけであそこまで絵柄は安定しないだろと思ってた >>483
それ本当なら流出したのが事実でも「本物のモデルではない」と言い張るだろうな
さすがにTIで画風固定させて商売は訴訟リスク高いだろ TI作りまくりならキャラ指定で顔が安定するのも納得だけど
とはいえ、リークったら盗品だろー。学習無罪とはいえ企業からの盗品は触れないなあ 意図的に過学習させてるって言ってたけどTIのことだったんだ… TI大量作戦は結構ええな
ユーザーが使いそうなワードを、TIで勝手に高品質な方向に変換しちゃえばいいわけだしな 触ってみたいけどハッカーが持ち出したものだし流石に怖えな TIであそこまできっちり画風固定させるのは枚数的に本物をソースにしないと無理だよね?どおりでクオリティ高いわけだ。 逆説的によく効くワードはNAIでの神トークンとして認知されるだけなので、露骨でも問題ないと言う。 hypernetworkってそういうことなの?
TIの集合体ってどこに書いてある? ここでリークモデルに飛びつくとハッカーの餌食というか、拠点にされそう そんな情報見た限りどこにも書いてなかったが
VAEのチェックポイントファイルを見間違えたりしたのか>>483は >>471
> ckptファイルは性質上、リスクは低くない
このスレは皆知ってる気もするけど、知らない人のために、モデル(ckpt)、Texutual Inverision用ファイル(pt、bin)は
任意の実行コードを仕込むことができて、SDなどでロードすると即時にそのコードが実行される
SD起動=正体不明のexeファイル実行と同等の危険性なので、誰かが検証したファイル以外は使わない方がいいね
実行コードが含まれていないと検証するツールとかあるのかな? だからcolabは優秀だった
その辺の危険性をグーグルが被ってくれる 自分が読んだ限りでは
従来のモデルファイルと同じように読み込んだだけでも動くが出力が大分プアでフェイクを疑われる
別途VAE(Variational Auto-Encoderのこと Diffusionをかけた後の中間層を実際の画像にするヤツ)がカスタマイズされていて、それを読み込ませるといかにもNAIっぽい画像になる
ヴォルデモート卿が早速自動読み込みに対応する
ってだけの話なんだが
どこ読んだんだろう 任意コードが実行できるってことは犯行予告系の書き込みもできて最悪警察来ちゃうぞ いや,483はITとしか言ってないから勘違いした俺らが悪い
たしかに機械学習はITを作りまくってるわ ということはWD1.3+NAIのVAEとかでも質が改善されるのかな
そうだったらかなり面白い ハッキング方法がパスワードがpasswordにみえるんだけどマジ? >>503
なるほどワロタ
確かにSD一つ成立させるためにどれだけITが使われてるか考えたらITだらけだわな 怪しいけど使えそうなckptとコレクターズアイテムの空のckptをかけ合わせたら安全な使えるckptにならないかな
掛け合わせる段階で実行されちゃうか colabがフリーズしまくりなんだがリークのタイミングからか LinuxのDocker上で動かしてもマルウエアは貫通してくるのか? すまん読み進めてたら少し間違えてた
VAEは微調整程度で、別途hypernetworkってのがあると
このhypernetworkはattention(どこを変えるかを割り出す処理)に割り込んで、そこの処理能力をいじくってる
結果としてアニメ絵があの精度で出てくる
これ無しではWD1.3どころか1.2にも劣るような出力しか出てこないらしい
んで、用意されてたのは3つ
1 アニメ絵がカッチリ出る何か
2 エロ絵特化の何か これにするだけでどんな絵にもエロ要素が足される
3 よく分からないが恐らくケモ用
nsfwって入れた瞬間にエロエロになってたのはそれをキーワードに1と2を切り替えてたからと リーク本物だわ
models/hypernetworkに
リークされたmoduleだっけ?ptファイルたちを入れる
好きなfinal prunedのckptをmodels/Stable Diffusionに入れる
ここまでは動いてくれるぞ
残りのファイルは未対応だな 余計なものが引っ付いてるかはともかくモデルは本物なのか (masterpiece:1.3), (highly detailed:1.3), girl
ネガティブが
realstic
でこんなキレイにでたわ
https://i.imgur.com/qM7I0cg.jpg twitterに貼ろうとしたがやめたわ
これはsfwのckptなんだけど
fullのckptにするとNAIのよくある肉感のあるおっぱいむき出しになるんよ
本物だわ 駄目だ・・ここ数日の情報があまりに多すぎる
頭がパンクするわこんなん マジリークかー
試して影響なさそうなら使う人増えちゃうかな まじかよもう入れちゃうぞ?
数日待ったほうがいいのか? 数日待つと、もう時代遅れになってる可能性もあるのが絵AI >>488
不正アクセスしてダウンロードだから
完全に犯罪だよね
イラストの無断転載と違って完全にアウトだぞ すぐSDに反映されるから今使うのはやめといたほうがいいな
俺はウィルスかどうか検証してただけだからセーフや
悪いやつが多すぎるんや >>513
models/hypernetworksかな
vaeの方は、ckptファイルの拡張子をvae.;ptにして配置っぽい ローカルで実行したいけどモデル自体も著作物だろうからダウンロード自体が犯罪の可能性があって手が出せない。ちくしょう。 >>526
ヤバさの次元が変わってきてる
Waifuヤベーと言ってたのが遠い昔に感じる このリークで解析できたろうからwaifuに更に頑張ってもらうか hypernetworkって本体のネットワークが微妙で勝手に調整してくれる何かが必要な時にぶっ込まれる絆創膏みたいな存在だから
大分ノウハウ的なんだけど取り込めるかね
そもそも流出した秘密ノウハウを取り込むか的な話からか Automatic1111、不正アクセスで入手したリソースを使うパッチは、ちょっと一線を超えた感がある
>>509
Docker起動なら当然コンテナ外には影響ないね。 Dockerお勧め。
ただ >>502 にみたいに自分のIPで殺害予告とかはされちゃうかもしれないね >>535
そもそもわりとグレーなツールも作っていた人物なので今更感
NovelAIっていうタブを作ったらさすがにアカンけど、今んとこwebuiが何かを侵害してるわけではないしな あーあ…カオスだよ…
この仕組みを参考にすればWifuも同等品質狙えそうだな コミット見たけどほとんど何も取り込んでないからなぁ
謎のファイルが居ることを検知したらそれをattentionのあたりに処理層として放り込むって数えるぐらいの行数のコードだけ >>534
hypernetworkは選べるのか
全部読み込めたけどどうなんだろ Settingタブのモデル選択するところの下にある >>540
そして失い続けるんだ……
貴重な機会(チャンス)を…! hypernetworkとかいう謎技術判明したんか
流石に使わんけど原理が気になるな >>421
自己レス
highres. fixの方は古いconfig.json消したら治った
Show show image creation progressって面白いから使ってたけど
覿面に生成スピード遅くなっちゃうんだな、そのまま量産してた・・アホだ ここの住人、本業絵描きよりも絵が描けないプログラマーの方が多そうだな
言ってる内容がわけわからん SDはdiffusion→VAEだったのがNAIはdiffusion→hypernetwork→VAEの流れで生成してるって認識で合ってる? 誰一人触れてないけど>>300みたいな化け物もいるスレ
本業絵描きはAIなんてそもそも要らんという・・素人に毛の生えたくらいの人が多いかと
例の廃業ですの人もそんな感じだったし >>548
入力→diffusion→VAE
↓↑
hypernetwork GPUもっててAI絵やる人なんて
大体機械学習に興味のあるプログラマーか、3DメインでクリエイターPC持ってる人だから
話してることは難しくなる 技術の側が安定し、進歩がゆっくりになって、誰で手軽に使える手順が確立し、道具の習熟速度では差が出にくくなる
そうなれば別に中身の詳しい知識も要らんし、これまで成果物を仕上げてきた絵描きの経験の重みが増していく
今はわからん話ばっかりでも大丈夫やろ多分 ダウンロード時間無限増殖してて草
Twitterにurl貼ったやつ死んでくれ 誰かがhypernetworkをWaifuに適用させたのか自由に学習できるのをばら撒いてくれるだろ
今はそれ待ちでも良い気がする っていうか、Waifu1.4にのみ込まれるだろう。 日本イラストレーションAI協会みたいなのがそろそろ出てくるか?(笑) 指がそろってる等条件が満たされた画像が出た時、報酬が出るマイニングブームが来る…? NAIハンコ顔なのは加筆で直すとしても全く違うSEEDやプロンプトで
ほぼ同一(人間絵師ならパクリ判定レベル)の構図を連発するのはやばみあるわ
こんなん使ってたら誰もかれも同じ構図ばっかりになんぞ ポーズからSEED値の予想できるSEEDソムリエ誕生の瞬間であった それはNAIが自作小説の挿絵をつくるための仕組みであって、別に独創的な絵を描くためのものじゃないというだけではないかと。 >>563
SEEDは有限だからいずれ絵からプロンプトとSEEDを探索するツールが現れても不思議じゃないよね >>555
BitTorrentはダウンロード中の人が多いほど早くなるぞ
感謝しておけ 正直SDのレベルだったら面白い道具にとどまってたかも知れんけど
MJやwaifuやNAIがやりたい放題したせいで全てが滅茶苦茶になってしまった気がする
AIの民主化をかかげてたSDの中の人は少し後悔してるのかもな
この状況ではSD1.5はそりゃ延期するよな
SD1.5や2を公開したらまた有象無象がえげつないこと始めるに決まってるし >>568
流石にSDの中の人にはこの程度の進歩なら想定の範囲内っしょ
まだ過去の人間に追いつくかどうか程度で入力方法も生成速度もSDから革命的に変わったりしてないし
AIとして出来る事としてはむしろ本家よりずっと狭くなってるみたいだし
ここから人間の創造を追い越したらその形によっては後悔する可能性あるだろうけど とりあえず、トークン制限とAND区切りの安定化は欲しいなあ。 ノベルAIリークtorrent、現在アクティブ200人 サービス開始して1週間もしないうちに内部データが流出とか伝説になるなw 初日に課金系サーバーが落ちて、次の日にはnovelAiが落ちて、ちょっと落ち着いたと思ったらデータリークして。その裏では強烈なインパクトを与える生成画像があちこちで物議を醸し出して投稿系サイトへの脅威となって。
まるでAI発展の速度に合わせるようなアップダウンのオンパレードw 思えば中華AIは自社の一連のAI開発の一環としての技術デモだけで金取らないし
版権モロに出ないよう配慮されてたしお漏らしなんてのもある筈なくてめっちゃまともだったな
アメリカ人の民度下がり過ぎてすっかり逆転してた >>573
同じく静観
ああいう量産萌え絵に興味ナッシングなんでちょうどいい
ilyaさんみたいなリアルが混ざったアニメ調みたいなのが好き そういえば画像にノイズ乗せてAI学習を妨害・攪乱するっていう対策がTwitterで話題になっててなるほどって思ってたけど
考えてみたらあれSDみたいな拡散モデルには殆ど効果なさそうな気がしてきたんだけど。実際の所どうなんだろう? 拡散モデルには効かない。
どっちにしろガウスノイズ乗せるし。 実際効かないだろう。その妨害ノイズの最たるものがタイトルとかロゴとかなわけだが、たまにポロリと出てくるだけで学習そのものは阻害してないから。 >>580
仕組み知ってたら意味ないの分かるし
twitterでチヤホヤされてるために描いてる奴程度の絵なんて
ネットには既に5万と落ちている
1日でも長生きできるように神に祈ったほうが効率がいい というか、あれは初期も初期の、手書き数字の2値画像判別できたーって喜んでた頃の分類モデルだろ?
今のは人間が見てもわからんってレベルのをかなりの正答率で判別できたはず >>581-584
っすよね。ありがとう。これを機にもう少し勉強してみる We're currently experiencing some issues with our text-based generation models.
The team is actively working on this issue.
We apologize for the inconvenience and thank you for your understanding!
NAIまた落ちたってw あいつらエディアカラ動物群思わせるんだよな。
金入ってんだから鯖増強しろよな。苦情言えばなんか貰えそうだな 著作権なんて知ったこっちゃないというスタンスのノベルAIが潰れたら最高ですわ >>587
エディアカラ動物群について調べちゃったじゃねえか NAIモデル流出の話題性から結果的にはNAI課金は大幅に増えてアニメイラスト生成市場の独占が進みそうだな…
NAI利用してる層がグラボ買って1111が動くローカル環境用意できるとは全然思えないもん 月25ドル払い続けるより3060買ったほうがましだと思うけどPC自体持ってない人も増えてるらしいからなぁ でもブン回して遊んでると月2000円ぐらいは電気代増えるっしょ
それで最新のサービス受けられる保証もない上無限に手間がかかるものより
その時最強の物に月額で払う方がコスパいい気がする 中古はダメだぞ
手持ちでマイニングしてるのはMATSのメモリテスト全部FAILだからな 言うて一瞬遊びたい人も多いからな
趣味や仕事で使うやつは数十万のPC必須の世界になるが、
遊びたいだけでのやつは25ドル払うだろ AI会社に転職した際に奮発して買った機械学習の勉強用のPCがエロ画像生成マシンになるとは思わなかった ラフ絵レベルの他人の絵をimg2imgで勝手にいい感じの絵にしたのを
pixivとかに勝手にアップするのは許される? >>596
大学入って勉強用に買ったPCがエロゲ専用機に~のワンランク上のやつかな NovelAI使ったゲームとか公開したら
周りから犯罪者呼ばわりされてクラックされて作家人生終了する
権利的に安心で恨みを買わないAI画像生成ツールが出てこないと普及しないだろう haru-sanはNAIのleakの話にご立腹アル i2i使って簡単にトレパクできるなら、それはそれで間違ってないんでは 自作品をi2iするなら問題ないけど他人の絵でやったらトレパク 「原型とどめてたらやばい」っていう気持ちはあるんだよね
まあよくあるのトレパクも左右反転したりちょっとポーズや衣装替えたりするしね むしろ、AIが出てきたお陰でトレパク警察が死滅してくれて助かる もしかしてトレパク警察も今はAI絵で遊んでるのか? こんだけAIでパクってそうなイラスト大量生産されてるんだからトレパク検証し放題なのに沈黙してるからねw >>610
古塔つみ事件を知らんのか?
あれは発見する側にAIを用いて大活躍したのがいたんだぞ skebでは禁止されてるAI絵を納品してアカウント停止されたやつがでたようだよ それはまあ、トレパクとは関係なくただの規約違反だろう。 >>597
AIを使うかどうかに関わらず、元絵の作者の気分次第では
たぶん今までも
「○○さんのラフ絵を勝手ながら塗らせていただきました!自分のpixivに載せましたので見てください!」
みたいなのはいたと思うし、そういうのが元絵作者や野次馬にどう見られてきたかを考えれば個人で楽しむ範囲にとどめるのがいいんじゃないの そもそもトレパク警察の正体って嫉妬に狂った無産ワナビ野郎だから
今はAI使って絵師気取りで絵師の邪魔をする活動にシフトチェンジしてる そして、今度は無産になった元絵描きがAI警察にクラスチェンジすると。
それはともかく、SDとは別の画像生成AIもいろいろ動いてるみたいね。
SDほどのインパクトある感じはしないけど
https://twitter.com/_akhaliq/status/1575553102761050115/photo/1
https://twitter.com/5chan_nel (5ch newer account) 50GBものすげー時間かかるかと思ったら2時間以下で終わったわ ダウンロード速度が数十キロバイトとかなんだがこれ速くなってくのか?
トレント初めてだから分からん 完走ユーザーが増えれば加速度的に速くなるよ。
そいつらが接続切らなきゃだけど。 昨日急に早くなったのはそういう訳か
自分は終わったら速攻で切ったけど いまwaifuの中の人を始めとしたモデル作者が全力でNAIの知見を反映させてそう
赤の女王の国を彷彿とさせるな クオリティの根幹はhypernetworkっぽいから
Waifuやら他が取り込んでからのモデルに期待 ここまでNAIが丸裸になっちゃうと、Waifu1.4は有利だよな。
しかし、NAIのhypernetwaorkって考え方はモデルとは別のカスタム系の流れになるかもしれんね。
元ネタ、この辺りかな?
https://arxiv.org/abs/2104.05860 NAIが流出した以上 問題はそれを超えられるかって所だけどな
WDの方針的にNAIの絵柄がちょっと古めに変わっただけのものになりそう 絵柄に関しては元の段ボールに結局依存するから、ある意味どうしようもないというか。
指示の自由度と複数オブジェクトの関係性の破綻が無くなるだけでもかなり強いよ。
Waifu1.3で1人の手とか足とか指の破綻は軽減したけど、複数人が絡むと全然駄目駄目だし。 縦は512x1536でも体が壊れないな
でも1024x1024にすると体が壊れる 512x2048だと破綻する
どういう風にデータを加工してるんやろね どう加工して学習させてるんやろね
そこが気になるわ ピクセル画像じゃなくてベクター画像を出力出来るようにすれば解像度なんて関係ないじゃん >>631
github.com/GeorgLegato/Txt2Vectorgraphics
ベクター画像スクリプトはあるらしい、使ってないから詳しくは知らんが ノイズを取り除いていくっていう、粒度計算方式ではベクター出力は無理だろうから別口を期待かな。
っていうか、その場合は学習って解像度関係あんのかな。 ベクターにしたところで生成された画像の情報量そのものが変わるわけじゃない というか、VQ-VAEとかCapsNetとかあの辺りの
学習量少なくて規模も小さくても性能を出せるみたいなやつはどこにいったのか
CapsNetとか構造理解できるようなるとかいう謳い文句だった気がするんだが リーク版は新キャラに対応してくれないし、なんだかんだでNAI的にもただの宣伝になってたりしてな リーク版はHyperNetworkがデカい
SDやWDにも有効なんで本家以上に可能性がある リーク版で出したとか言われてるネットの画像いくつか見たけど
NAI特有の体の綺麗さとか顔の安定感とか版権の再現性の高さとか全然ないからあれじゃダメージないだろ
むしろ本家に客を呼び込む自作自演かとすら思うわ ローカルでリークを名目に試供品を使えるようにしてるんかw 流出版が本物か変なコード仕込まれてるやつかわからんし
落とすだけ落として塩漬けだな当分。 colabでAutomatic1111の動作って安定してる?
Colab, maintained by Akaibuで動かしてるんだけど複数生成でエラーが出てくる
ui側はエラーはいてcolab側は動いてる
gradio.app/api/predict/ net::ERR_HTTP2_PROTOCOL_ERROR 200
colabのoutputには画像が存在するからuiに持ってくるところで落ちてるみたいたけど原因がわからん >>643
本物なのは確実
公式声明も出てる
ただ、最初に流出したやつ以外は追加で何か仕込まれてる可能性は大きい いつのまにかeuler_aでbatch size大きくしてもちゃんとseedの整合性取れるようになってるね
かなり前に駄目だって認識して以降放置で、ずっと確認してなかったw んで、大量高速生成のためにbatch sizeギリギリ狙って上げてるんだけど
100%まで行った後にwebui上の見せ画像生成のタイミングでVRAM余分に使ってる?のかわからないけど
CUDA Out of Memoryで落ちる(grid画像生成はしてない)
pngをjpgにしても結果同じだった
あれ切れないのかなぁ・・・枚数多いと数秒固まるし邪魔だわ
ブラウザ上で生成画像なんて見ないっつの
せっかく12GBある3060なのに512x768でbatch16枚くらいが限界で途中見たら8.7GBくらいしか使ってなくてもったいなすぎる
それとも関係なくて、最終ファイル出力時はどうしてもメモリ大量消費するのかな? >>648
> あれ切れないのかなぁ・・・枚数多いと数秒固まるし邪魔だわ
Settingsを舐めるように見ろ。 > Do not show any images in results for web
> Enable full page image viewer
> Show images zoomed in by default in full page image viewer
は切ってるけど全部関係ないんだが、どれだっけ?w >>650
落ち着け。Do not show〜だから、offったら画像が出る。 いやぁっ!恥ずかしい////
でも16枚以上は無理でしたとさ・・・最後の生成の瞬間12GBぱんぱん行ってる
並列だから仕方がないのかなぁ つかどれも768x512じゃん、普通では
その倍サイズでいかに精緻に出すかでみんな競ってる段階なのに
深津って人、生成絵に関してはたいしたことないのな >>653
何をやってるのかはともかく、描き込み量が増えても手の生成がおかしくなるのと同様
歪なオブジェクトの集合によるなんちゃってコンセプトアートに過ぎず NAIのクオリティが高すぎて試行錯誤してた人がほとんどいなくなって
エロスレも大幅に減速してるの笑えねぇわ
絵描きがAIで意欲無くした歴史を超速再生しとる 言うて、他の奴らも2~3ヶ月で追いつくだろ
今は休憩時間ってだけ 今エロスレ住人はリーク版で忙しい
オープンソースがNAI並になる未来が見えたんでそのうち盛り返すと予想 リーク版に完全と突っ込むんだから、エロスレ民は流石に突き抜けてるわw エロスレが過疎り始めてたのはNAIのクオリティというよりクローズドで展開されてたからだろうしな
オープンソースで使えそうとなったらそりゃ目の色変えてくる エロスレはリーク版上等でローカルに拘っててなんUは相変わらずNAIでキャッキャしてる対比は面白い
そして今一番AIで勢いあるのはなんUの方だな
やはり母数が全然違うしSD出始めのここみたいに技術交換が物凄く活発 多分なんJNovelAIに移住してる
意味わからん速さでスレ消費されてる エロスレ過疎ってるか? 普通に賑わってるじゃないかw >>653
ちゃちゃっと作ってみたけどこんな感じ?アーティスト名なし
https://i.imgur.com/BXcfSoV.jpg
彼みたいにごちゃった町みたいなのじゃないと比較にならないからダメ? >>667
すごいと思います!
inpaintですか? >>667
綺麗
これノーマルSDなんだよね?
プロンプト知りたい ああよかった、その程度じゃ全然とか言われたらどうしようかと
一番上の橋のやつ(都合で改行)
digital art of tropical rain dark forest,god rays,ancient intricate stone bridge besides river,
flowers,blue sky,few cloud,digital highly detailed,artstation,(((sharp focus))), illustration,
darkfantasy,cinematic lighting
ネガティブでfog,haze,blurr
768x512、lms、step50、cfg7.5、seedは2473386841、ckptはwd1.2
・・・・で、結合後に最後ズルしてシャープ処理入れてる、すんませんw
そんな変わらんと思うけど、やっぱ印象が違うので
たぶんこのスレではかなり前に既出のネガティブでぼやけ系抜くことでくっきりはっきりするって話だと思うよ
ああいう町みたいなのはなんか単語があるんだとは思うけど、ちょっとわからなかった >>670
ありがとうございます
やっぱプロンプトの工夫なんですね...ネガにぼやけ系抜くのやってるけど上手く行かないから、そもそものプロンプトが弱そう
簡単なプロンプトでクオリティ安定するようにならないかな dreamboothで風景画を学習するやつはちょっと気になってる >>670
ありがとう!
なるほどネガティブも駆使してとにかくシャープにするといいのか
今プロンプト真似してCPUでのろのろ生成中だから完成が楽しみ > 簡単なプロンプトでクオリティ安定するようにならないかな
元々は他人のコピーからで、プロンプトどれが効いてるのか?って一個一個抜いて試してたことあるんだけど
ガラっと変わるコレって呪文があるわけじゃなく微妙~に変わっていく感じ
大量に入れることで綺麗な画像にジワジワ寄せて行ってるのかなぁって >>658
真面目に計算するとNAIの方が電気代考慮すると安くない?
1ヶ月GPUぶん回すと3500円じゃ済まない
業者に首根っこ抑えられるのは気に入らないが使えているうちはNAIでいいやと思い出した 日本のリアルな風景を出したいけど中々難しいよね
japaneseって書くと外国人の思う和風みたいな感じになってしまう >>677
地名のほうがいい
tokyoとかkyotoは強いよ 閃いたんだがdalle miniをベースにimg2imgしたらいいんじゃないか?
https://i.imgur.com/tXX1C6w.jpg >>679
前にそういう論文見た気がする
SDは品質が高いけど突拍子のないプロンプトへの対応が苦手だからそれが得意なdalle miniを初期画像の生成に使ってそれをSDで拡大してくってやつ
使ってたのが本当にdalle miniだったか自信がないけど >>678
Kyoto強すぎる。京アニ入れただけで、エルフが着物着るんだから。 >>679
emadも以前にこの方法いいねみたいなリツイートしてたと思う >>682
結構いい感じになるな
それはそうとflirtは英語でイチャイチャするだ
girl flirt boyとかの形でも使えるから積極的に使ってくれ☺ NAIのハイパーネットワークも同じような発想なんかね。 >>677
gunmaとかでクッソ田舎の山になった記憶がある。 トークン制限撤廃のタイミングでWD1.4が来る流れか そっちじゃなくてxformers
だけどなんかぶっ壊れたわ >>692
21分前にemergency fix for xformers とやらが入ったけどそれでもだめ? たしかに、75トークン超えても受け付けてくれる。結果が良好とは限らないけどとにかく入る
TIとかが使いやすくなるかな。ベクトル数ケチらずに済むかもだし >>694
120Gかぁ。GPTモデルってなんだろう NAIのエンジニア、すっげえ魔改造しまくってたんだな。 >>696
元々NovelAIは英語の小説AIでやってたところなんでそっちの方
一般人が使える中では世界最大級の英語テキストAI >>698
そうなんだ。NAIのクリップもそれ使って改造してたんかな・・? >>699
そっちはノウハウは投入されてるだろうけど直接的に何か使えるようなものではない
danbooruの画像タグを自然な画像の説明文に仕立ててWD1.3みたいなタグしか知らないモデルにならないようにとかには使ってそう 膨大な数の.ptファイルあるがこれ全部hypernetworkなのか?
パート1のやつあんま役に立たなかったけど >>700
CLIPってトレーニングされてない単語でも特徴ベクトルに応じてガウス球上でのベクトルを推定する仕組みがあったはずだけど、GPTを通すとさらによくならないかな、とちょっと思った xformersはRTX3000シリーズ以降しか使えないみたい >>703
pythonも3.10にしないとだめらしい
でxformerって何する人? xformersはattentionの部分だったかな
指示に対してどこをどうするかという基幹部分
なのでこいつが処理の多くの割合を占めてて、速くすれば全体も速くなる
んだけど今までLinuxでしか動かなくて今回はWindowsで動くようになったがRTX3000以降用の実行ライブラリで固定されてるのでそれ以外はお断りと 生成速度アップと省メモリ化みたい
試してみたけど結構効果大きいね
xformerオプション無し
Time taken: 7.08s
Torch active/reserved: 6229/6658 MiB, Sys VRAM: 9756/10240 MiB (95.27%)
xformerオプション有り
Time taken: 4.46s
Torch active/reserved: 3968/4820 MiB, Sys VRAM: 7266/10240 MiB (70.96%)
オプションの有無以外の条件は全く同じ 更新しようかろ見たら3 minute agoとかあったので思いとどまった
もうちょっと時間置こう >>707
おーかなり違うな
そういえばdreamboothのcolab版でも使ってたね 3000シリーズ以外はxformersを使わないようチェックが入っているのでそれも削らないとダメそう ひっそりアップデートしてたdiffuserの0.4かなり性能上がってんな。ネガティブも使えるし。colabユーザーには良い感じじゃね? リーク版でtextual inversion試したけど何故かぐちゃぐちゃになる >>714
Hugging Faceのdiffusers説明のブログ記事見たら、pip install diffusers==0.4.0なんちゃらって書いてあるのはわかったけど、0.4.0の改善点とか新機能の説明が書いてある場所はわからなかった
Colabの自前のしょぼ環境にネガティブプロンプトとか重み付けの機能入れられるってことなら凄い嬉しいんだけど、どこかにいい感じの解説ページとかあったりしますか…? 今リアルタイムでwebuiのバグ修正と更新が行われてるから要確認 >>716
この人がまとめてくれてる
https://note.com/npaka/n/n1a482477aec3
AI関係は日本語も英語もTwitterが早いし解説付きの場合も多いからそっちで検索してみるといい hypernetworkに使うファイルってリークじゃなくて独自に制作しようみたいな動きはないの やるとしたらwaifu1.4で組み込んでくんじゃね?
1111もかなりアプデ入ってるな。ここ数時間でモジュール系のファイルがガンガン更新されてる。 >>718,719
うおーありがとう!!
日本語でまとめてくれてるやつさらっと見たけど、ネガティブプロンプトの反映のさせ方は詳しく書かれてなかった…過去記事とかに何かあるのかな
明日起きたらリリースノートとTwitterも含めてちゃんと読んでみる haru-sanはどっかで発言してる?
沈黙してて不気味。 とりあえず1.3のタグの重み表っぽいのはディスコで配布してた。 おっ、よかった。discordしか見てなくて気が付かなかった。
NAIと戦う気が残ってそう。 xformersって、結局別にビルドとか必要なん?
webui-user.bat内に「COMMANDLINE_ARGS=--xformers」とやるだけじゃ駄目? xformersの使い方わからん・・・だれか教えて
【環境】 3090, win10
1. git pull
2. 同フォルダ内の venvフォルダ と repositoriesフォルダを消す
3. webui.bat内に「COMMANDLINE_ARGS=--xformers」を追加
4. webui.batを起動
以下、ログ
Launching Web UI with arguments: --xformers
Cannot import xformers
Traceback (most recent call last):
File "C:\StableDiffusion\stable-diffusion-webui\modules\sd_hijack_optimizations.py", line 15, in <module>
import xformers.ops
ModuleNotFoundError: No module named 'xformers' webui-user.batだと思う
それはそうとWDベースでtrinartやってくれないのかなぁ… 自己解決しました
xformers が python 3.10 以上必須だった。
anaconda3上でpy3.10環境を新規作成してから、
webui.batをクリックすると、venvにもpython3.10が入った。
【win10の手順】
1. Anaconda Powershell Prompt (anaconda3) コンソール上から
conda create -n py310 python=3.10.6
conda activate py310
1. git pull
2. 同フォルダ内の venvフォルダ と repositoriesフォルダを消す
3. webui-user.bat内に「set COMMANDLINE_ARGS=--xformers」を追加
4. webui-user.batを起動
>>733
たぶんwebui.batでも変わらないけど、みやすいしソッチにします 初心者質問で申し訳ない
NMKD Stable Diffusion のGUI版をインストールしてGenerateを押したところ以下のエラーが発生しました
Module Not Found Error: No module named "torch"
インストールは全て正常に終了してるはずだし、全部消して再ダウンロードしても同じ現象が起こるんですがどうしたら解決しますか? ファイル名やユーザー名に日本語が入ってるとそうなるんじゃなかったかな
Cドライブ直下に移動してもう一度やってみたら? そういやさ、グラフィックの話題まではこの板でいいかもしれないが
AI板ってそろそろできないわけ?音関連はどの板で話せばいいんだ?
テキストも感覚で突き詰めると音になるしさらに行くと思考に辿り着くと思うんだが
一番近いのはプログラミング板か?アート哲学技術の総合話題の板みたいなのは未だないのか 土方や建築家の建てた綺麗な建物の中に美人が居たとするだろ
仮にそれがラブホとしよう
どちらに関心が向く?一緒に居たい?大事にしたい?
IT土方や技術者が力を握る時代は来るかもしれないがそれは花形を作る立場でもないんだよ
どちらに憧れてなりたいかと質問しても同じ
金も技術もそれ単体ではなんの価値も生み出さない
文明崩壊した地域で紙切れとボロボロになった道具と絵が書いてある小説があったとする
惹かれるのはどこだ?意志を感じるのは?夢の虚しさではなく心を感じるのは?それが答えだよ
無味乾燥とした未来を望むなら金と技術を崇拝してればいい、次に来るのは技術の時代だ
あえてここで書く まぁ全部見られてるし記録されてるからなぁ
内容で意識レベルも分かるってもんよ、どこに意思と関心が向いてるのかも
過程飛ばしてもどうせもっといい素晴らしいものが近い後に出来ているので分からないならそこまで待てばいい
その前に核戦争で終わる?少なくともここにいる連中はそんな事現実視してないだろ?未来は明るいんだよ(笑) 4chanでWD 1.3の話しても
もう誰も聞いてくれないや ペイできるは同意
ツールの進化と扱いやすさが比例して進化していくと考えられるので
ここ見て分からないか興味湧かないレベルならそのレベルが出るまで待て
初めは微妙言われてたツールも数年のアップデートで変わった例はある >>738
ここのスレの奴らも内容からそりゃ美人の方を取るだろw
ツールそのものを人(神)格のように拝めたりしてねぇよwあくまでも道具だ
道具(AI)の方が出しゃばってきて道具として役割を果たさなくなったら嫌って声が今世界でも上がってる このスレの人達も大半は女の人の画像を生成してるんでしょ
えっちなことと戦争(エログロ)はよくないと思います(´・ω・`) Waifuと言うワードとなおきのイメージの生成結果で察しろ
まぁ確かにNAIもいわゆる萌え豚向けだけど 少なくとも女はエロ絵バーン!って出されても萌えない。文脈で萌える傾向があるからAIガチャでエロ絵生成して楽しむのは男だけの需要になりそう
エロ絵は女絵師が多いらしいが男に需要があるから兼業主婦の小遣い稼ぎ感覚で描いているだけで自分が抜くためには描いていない
商売にならないとわかると女エロ絵師はAIからもイラストからも手を引いて他の小遣い稼ぎ出来るなにかに行くと思う せやな。すまんかった。マジですまんかった。本当にごめんなさい。 匿名の研究者が文章からの動画生成の成果を発表するくらいだし
来年には文章打つだけで漫画どころかアニメ生成できるようになるし
その文章自体もAIでクリック一発で作れるようになってるだろうな
もう人間のいる意味?ってなるわ >>750
時間かかってもAI超えできる人は需要があるけど
そこまで人間が育つための環境はなくなりそう
やはりAIを利用してレタッチの人ばかりになる予感 水でできた動物を描いてみたとか宝石でできた動物で描いてみたとかそういった動物と何かを重ねただけ系の絵描きは仕事減りそう
今までかなり稼いできただろうから生活の心配はしてないけれど 1111最新版入れ直して爆速だけど、出来にムラが・・・
気のせいなんかな・・・ やっぱマージするとダンボールタグの効きが弱くなるなー。 仮にあらゆるデータがワンクリック生成できたとして
人間がどう評価するかが全てなので
ただのデータに良し悪しつけれる人間ありき
教師データを生成、取捨選択できる人間ありきよ
画像という宝石をいくらでも作れる機械が生まれるのか
画像がその辺の石ころくらい価値のないものになるのかは知らん
有名絵画は歴史や画家の人生や込みで語られたりするから少なくともその辺はセーフ
今はAIが描いたってことに付加価値ついてる人もいるかもだが もうでて情報もあるけど朝のデスコ雑まとめニョース
Waifu「1.3最終盤できたで」
Emad「不正な方法で得たデータ(たぶんNAI)使ったプロジェクトは認めへんで」 【Midjourney】AI関連総合9【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665141437/
長文でお気持ち表明したいならこっちいけクソが >>723だけど無事にネガティブプロンプト使えた嬉しい
prompt="プロンプトの内容"
と同じ感じで
negative_prompt="ネガティブプロンプトの内容"
をpipeの引数に入れるだけでできた 1111とりあえず、100トークンまでは効いてる感じあるな。 リーク第二弾SEEDしてるやついなくね?完全に停止してるんだが
どうすんのこれ Automatic1111試をしてみたいのですが、
スタンドアローンなhttps://note.com/uunin/n/n725ae4601264
の方法と、 としあきdiffusionにある方法ではインストール後の使用感に便利性・不都合など何か差や違いはありますか? 第二弾のmagnetリンク見つけられねえ
4channelにあるんだよね? >>762
noteのやつはNMKDみたいにひとつのアプリとしてまとめる方法?みたいな感じ
としあきdiffusionに書いてあるのは普通に公式のやり方だから色々インストールしないといけない
オレはnoteのやり方でやったけど今のところトラブルなし >>761
シードの奴沢山いるから枯渇するって事はないはずだが リークのやつ、普通にNAI再現するなら第一段だけで出来るから第二段は特にいらないって聞いたんだけど
なんかお宝でも入ってんの? 製作工程のデータが入ってるから一部の人には役立つんじゃね >>764
まだよく分からないんですけどスタンドアローンの方で追記したいオプションはSTART_webui.batに書くようあるのですが、そのオプションって何なのでしょう?
あとアプデに失敗した場合の説明にありました再セットアップ時って、python310、PortableGitフォルダ、models、outputsフォルダなど避難させたあとにアンインストール→またゼロからインストールしなければならないのでしょうか。 >>765
まじ?ダウンロード0mbになるんだけどおま環か
>>766
第一弾の入れてもあんま再現できないし何かあるかなと思ったんだが
言語モデルとか入ってるのかな >>768
正直、読んでもわからないならやめといたほうがいいとは思うぞ
ああいう公式とは違うやり方は基本的には自己責任だし
automatic1111版て毎日更新してて、以前はわりと再インストールしないと動かないって事態も珍しくなかったんだよ
最近は更新部分入れ替えるだけでも大丈夫だけど
そういうの含めてよくわかんなかったら、おとなしくNMKD使ったほうがいいんじゃねーかな
オレは公式版はpythonでトラブって動かなかったからnote版はありがたかったが 1111はかなりアナーキーなので、転んでも泣かない精神じゃないと色々つらいと思う。 >>0770
最初はとしあきDiffusionの方法をdドライブで試そうと思ったのですが、pythonインストールの所で環境変数など専門用語出てきて撤退しました…
>最近は更新部分入れ替えるだけでも大丈夫だけど
これってそのスタンドアローン版のことですよね
もしかして先程質問させて頂いた、追記したいオプションをSTART_webui.bat内に書くというのは、更新内容のコードのことと言う解釈で合ってますか? 更新を取り込むのは
git pullで取り込まれる >>0772です
すみません間違えました…
追加したいオプションとは、プラグインのこととかでしょうか? >>772
あってない
グラボの環境に合わせて、低Vramでも動くようにするオプションとかを書き込む
てかそのnoteの下の方に書いてあったぞ、オプションのこと >>769
クライアントが古いと
新しいクライアント使ってる人と繋がらないんじゃないの? >>0773
>>0775
ありがとうございます
一応ビデオメモリなどは今回それ用に思い切って購入したパソコンで挑むので大丈夫…なはずです。
スタンドアローン版はプラグインを導入するのも簡単なのでしょうか? >>772
とりあえずやってみたら?全部
ここにいる連中もたぶん何回か導入に失敗してあれやこれやと調べたり悩んだりしたヤツいっぱいいると思うよ
automatic1111版webuiっていわゆる普通のアプリとは違ってそもそも専門的な知識が必要なものだから、結局は勉強して覚えるのが一番いい
それが無理ならおとなしくNMKD版使ったほうがいいよ >>778
そうですね、まずは導入してみます
みなさん親切に教えてくれてありがとうございました プラグインってのが何を意味してるのかは分からんが、基本的に該当フォルダにpy突っ込んだら呼び出せる仕組みにはなってる。 >>779
がんばれー
エラーが出たらちゃんとスクショ撮るかメモるんだぞ >>779
後はStable Diffusion UI(webuiではない方)もいいと思う 1111でMacのseed機能しない問題はいつ対処してくれるんだろうなぁ
解決してるフォークもあるにはあるんだけど、やはり1111を使いたい https://i.imgur.com/leQHbHg.png
https://i.imgur.com/FgnHzGJ.png
昨日から使い始めたけど自分で手直ししていけば充分可愛いイラスト作れるね
NAIみたいに特定キャラに寄せれるようになれば言う事なしだな >>783
リーク第二段の成果がこれってことかな
完全に中身全部ぶっこ抜かれたんだねぇ >>783
非トレントのダウンロードリンクありがてぇ~^^ >>783
これリーク第2番なの?
適当にGoogle翻訳で見た限りは一弾にしか見えないけど むしろなぜ二弾だと思ったんだお前ら…
10月7日は一弾のリーク日だぞ 1111版の設定のIgnore last layers of CLIP modelってどういう意味なん?
ここは0から変更する必要ない? >>791
リークモデル向け
NAIモデルは2で訓練してるから、合わせるとNAIに似る >>792
そんな目的で追加された設定だったのかよw
ずっと分からなくて悩んでたわ 流出したNAIの学習データってNMKDでも使える? >>793
再現するならいらないよ
vae, final-pruned, yaml, CLIP set to 2, --xformersでNAIと同じ画像を生成できるらしい
4chanに投稿されてた
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg やっぱりlatestじゃなくてfinalじゃん
誰だよlatest薦めまくってたやつ NAIモデルは使用メモリ多すぎて動かんかったわ…… 一応diffusersモデルに変換してckptに戻してpruneするという力技で2GBにprune可能
ただし出力される画像は異なる
step8
https://i.imgur.com/cpSs8ZH.jpg
step30
https://i.imgur.com/Id68K5c.jpg
なぜかIgnore last layers of CLIP modelを2にすると同じ画像が出る >>797
画像見る限り Euler a じゃなくて Euler なんだな stable-diffusion-webui-dockerでCheckpoint Merger使ったことのある人いるかな?
マージしようとすると2つ目のモデルを読み込んだログをはいた後エラーなしでコンテナが突然落ちてckptも生成されてないんだけどほかの人はマージ成功してる?
webui-docker-auto-1 | Loading /stable-diffusion-webui/models/Stable-diffusion/model.ckpt...
webui-docker-auto-1 | Loading /stable-diffusion-webui/models/Stable-diffusion/wd-v1-2-full-ema.ckpt...
webui-docker-auto-1 exited with code 137 >>797
さんきゅー
完璧に同じの出たわ
masterpiece, best quality, masterpiece, asuka langley sitting cross leggeg on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2 >>807
yamlなしでいけたよ
何かしら設定ミスってんのかもね ここで聞くことでもないかもしれんけど
NAI(もちろん本家な)で昨日と完全に同じプロンプト入れてるのに微妙に違う絵が出るようになった
設定ももちろんすべて同じ、俺だけか??
試しに>>797が紹介してた外人のプロンプト入れてもアスカの足が左右反対みたいな絵が出おる
隠しパラメータでもあんの?? >>808
出来ました!
Clip skip設定がうまく繁栄されてなかったです >>809
自己レス、原因分かった
NAIにはやっぱり画面からいじれないパラメータがあってそれが何でか0.01単位で勝手にずれてるせいで
同じ絵が出なくなるなんだよこのクソ仕様 ”企業努力”ってやつだろうな
だからクローズドは嫌なんだよな ここ最近の流れ早くておえてないけど一応NAIとほぼ同じ絵はローカルで出せるようになった感じ? 同じのでねぇわと思ってgit 更新したら同じになったわ こっちも微妙に違う画像になるな。でも怒涛の更新タイムに入ったみたいだからしばらく様子見。 >>804
137でdockerコンテナが落ちるのはコンテナが使えるメモリの割り当てが足りないせいらしい。 ヤフーニュースのサムネにAI画像使われてる奴あったけど違和感ないな
こうやって何気ない画像がAI作品に置き換わるんだな >>816
ありがとう!
exit code 137 でググったらたしかにメモリの話出てきた WindowsよりWSL2からの方がPyTorchの実行速度が早いらしいけど、1111でもWSL2のほうが早いの? NAIの神絵師レベルのエロ絵を見過ぎてもう普通の人間の絵には何とも思わなくなってきたわ
あっというまに世界中がそうなってしまうんだろうな
絵のハイパーデフレだ dockerで1111版webUIを動かすとこまではいったんだけど
これckptの入れ替えとかはどうやったらいいんだ?
はじめてdocker環境いれたから初歩的なファイル入れ替えもわからん >>823
models/StableDiffusion/ に入れたらSettingsタブで切り替え まとめ
Leak pt1
magnet:?xt=urn:btih:5bde442da86265b670a3e5ea3163afad2c6f8ecc&dn=novelaileak&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce&tr=udp%3A%2F%2F9.rarbg.com%3A2810%2Fannounce&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce
Leak Pt2 (環境再現には不必要)
magnet:?xt=urn:btih:a20087e7807f28476dd7b0b2e0174981709d89cd&dn=novelaileakpt2&tr=udp%3A%2F%2Ftracker.openbittorrent.com%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3FnnA80%2F % 2Ftracker.nanoha.org %3A443%2Fannounce
Automatic1111で環境再現 (Leak pt1のみ使用)
stableckpt\modules\modulesの中身を1111のmodelsに hypernetworks というフォルダを作ってコピー
stableckpt\animefull-final-pruned\model.ckptを final-pruned.ckpt にファイル名変えて1111のmodels\Stable-diffusionにコピー
stableckpt\animevae.ptを final-pruned.vae.pt にファイル名変えて1111のmodels\Stable-diffusionにコピー
1111を(最新版にして)再起動
セッティング [Ignore last layers of CLIP model] を 2 に
webui-user.batの起動オプションに --xformers を追加
比較画像
https://i.imgur.com/S4fyCAQ.jpg
https://i.imgur.com/dtEZHtl.png
xformerなし
https://i.imgur.com/CzrzV17.jpg
比較用プロンプト
masterpiece, best quality, masterpiece, asuka langley sitting cross leggeg on a chair
Negative prompt: lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry,artist name
Steps: 28, Sampler: Euler, CFG scale: 12, Seed: 2870305590, Size: 512x512, Model hash: 925997e9, Clip skip: 2 >>825
hypernetで何かしら選択していると(例えばanime_3.pt)web版と一致する画像ができないんだけど
hypernetって必要?シードとか設定呪文に間違いなし >>826
なしでやった
ただ、オレの環境だとその画像よりほんの少しdetailが細かかったんだよね
アスカの膝の部分
参考画像が粗いだけかな AUTOMATIC1111版 WebUIのスタンドアローン導入にまだ手こずってます…
START_webui.batをダブルクリックでインストールのところなのですが、
Couldn't launch python
exit code: 9009
stderr:
'D:\SD \ Python310 \Python.exe は、 内部コマンドまたは外部コマンド、 操作可能なプログラムまたはバッチファイルとして認識されていません。
Launch unsuccessful. Exiting. 続行するには何かキーを押してください
ここで適当なキーを押すと出てきたコマンドプロントが閉じて先へ進めません…
これはバッチファイルを認識してないと言うエラーなのでしょうか?
説明通りに実行してるのですが、やはり手順通りになっていなかったのですかね…
・table-diffusion-webui-masterフォルダをDドライブ直下へ配置
・用意したモデルは説明の候補に上げられた各3種のモデルじゃない
・PortableGit-2.37.3-64-bit.7z.exeはダブルクリックで抽出したらフォルダ名PortableGitがそのまま出たのでリネームの必要無いと思って配置した >>828
エラーは単にpyhon認識してないってエラーだから問題はpythonなんじゃない? pythonのインストール時に「pathを通す」みたいなチェックボックスをオンにし忘れたのではないかな? おそらくPython入れるときにAdd Python to PATHにチェック入れんの忘れてる 自分でパスを通せないなら入れ直せばいい もう諦めてNMKDで妥協しろ
その体たらくじゃ導入できても扱いきれん 寄ってたかって「パスが通ってない」連呼ですがさらに
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/#3-1
の「下部の「Add Python 3.10 to PATH」にチェックを入れ「Install Now」をクリック。」
というところです
Pythonを上書きインストールして、そのとき上のチェックボックスをオンにするのを忘れなければ大丈夫 スタンドアロン(portable)はパイソンインスコいらないんじゃないっけ
フォルダ名にスペース入ってるとか?
SDフォルダのスクショ貼ってみて >>828
そのやり方、名前とかフォルダの場所とか全部指定通りじゃないと動かない
たぶんpythonフォルダの場所が違うとか、名前が違うとか、中身が2重になってるとかが原因だと思うよ
正直オレもNMKDで妥協しろとは思うw
てか
基本的には公式の方法と大きく変わるものではありませんが、GitやPythonがなんなのかさっぱりわからない人や、
一度もstablediffusionに触れたことがない人は、まずは扱いやすいNMKD版などの使用をオススメします。
って書いてあんじゃんwww 環境汚したく無い気持ちはわかるが、gitも言語も扱ったことないのにコンテナ系は無謀だと思うわ。
NMKD使うか、普通にゴリゴリとインストールするかを選んだほうがいいかと。 こちらのnote見ながら試みています
https://note.com/uunin/n/n725ae4601264
記載の通り、python310.zipをダウンロードし解凍後、stable-diffusion-webui-masterに配置してますが…
この記事の導入方法ってPythonがパソコンに導入してあることか前提なのでしょうか >>822
でもAIは二次創作だと細部をちゃんと似せて書いてくれないから
結局加筆修正することになる
もともと似せるつもりのない人いるけど、名前だけ借りる人に嫌悪感 スタンドアロンはgigzineの手順通りにすれば誰でもすんなり初期導入できそうだけど
pythonをzipから入れたならいかにもPATH通ってなさそう 公式手順通りにPythonとgitを入れちまえばあっという間に解決や 他にAIとか使ってなくて環境を考えなくて良いならインストーラーからpython他入れちゃった方が楽だね
必要になってから仮想環境に手を出したらいい こうなってたら行けるはずだけど
https://i.imgur.com/C202UEX.jpg
NMKDの方はボタンひとつで後は待つだけだから楽だよ いけ、たぁー!
お高い買い物してしまったので皆さんの指摘の通り、甘えなのですがパソコンの環境を汚したくなかったんです
ですがみなさん親切にレスしてくれてありがとうございます!
>>0836さんにも感謝です!
python310.zipを解凍してそのまま配置しておりました…
解凍してそのままって、zipについてたフォルダ名のまま解凍されるのを忘れていました…!
なので仰るとおりpython310→python310となりフォルダが被ってしまってました…
とりあえず今は待ちます
本当にありがとう! >>845
ありがちwww
導入成功はおめでたいが、今後もトラブル多そうだなw >>D:\SD \ Python310 \Python.exe は、 内部コマンドまたは外部コマンド、 操作可能なプログラムまたはバッチファイルとして認識されていません。
SDの後のスペースとかPython310の前後のスペースとか見てるだけで恐ろしいわ。良く動いてるなw WSL2勢ってあんまいなそうだよな
環境が独立しているしexplorerからファイル見れるしdocker-desktopやvscodeとも連動するしで使い勝手は良いのだが >>845
よかった
note の奴は環境変数弄りたくない人用だからね torrent使いたくないんだが、容量の問題もあってtorrentでしかリーク公開されてないよね? 写真をマットで平面的な絵にするのに一番適したプロンプトってなんでしょうか?!
元の写真と構図や状況は変えたくないのでDenoising strengthは0.5くらいにしているのですが、
それだとほぼ写真が作られてしまいます><
mangaやby hokusaiでもほぼ写真がつくられちゃいます>< 無知と確認不足で本当に時間かかった…
そして自分はこれからあと何時間待っていればいいんだろう
寝不足は免れませんね
>>848
これは一体なんなのでしょうか? >>855
wsl2に1111版webuiをインストールしたコンテナを作るインストーラーですかね? Torentのツール事態は違法でもなんでもないけどね
やり取りされてる物事態があれなだけで >>856
wsl2はまだよく分かりませんが、まずはAUTOMATIC1111を弄って遊んでから調べてみますね、ありがとうございます! >>853
覚悟がないやつは手を出すなという最初の試しの門だなw
てか、たぶんそいつは色々検証済みのオリジナル
それ以降にアップされたって話は知らないけど、もしもあったとしたらおそらくなんか仕込まれてる
覚悟決めろw いつ間にかマグネット変わってウイルス入りになってたりしそうだなw まあ、そもそもリークだからな。誰かがどっかで何を仕込んでてもおかしくないw 初心者質問で申し訳ないんだけどbatファイルの起動オプションってどこでいれればいいんだ 2週間ぶりにdreambooth使ったらなんか学習うまくいかん、微妙に特徴は捉えてるんだけどめちゃくちゃぼやけた絵になってしまう
エラー対策でaccelerateなんたらって所変えたのとwaifuが1.3になってるくらいしか変更ないはずなんだけど…なんでやろ >>863
>>865
そういうことか!ありがとう >>858
お前よく見たら昼頃からいたやつかw
すげーかかったなwおめでとうwww
無駄な買い物にならんように頑張れよw >>783にあったtorrentじゃない方もモデルにウィルスが仕込まれてるんですかね…? basujindal版の開発が止まってたことに今気が付いた >>868
多分このスレにいる全員が「お前はそれに手を出さないほうがいいwww」って思ってるぞw
そもそもそのリンク先のやつを構築してみたっていう話も今んとこ聞かない
安全を考えれば手は出さないほうがいい
どうしてもリークに手をだしたいなら、素直にuTorrentでもインストールしな 逆に考えるんだ
>>868 が人柱になればいいんじゃないかと NAIモデル欲しいですけど、我慢、ですね
WD1.4が食べてくれてることを切実に願うばかりです… 誰かがモデルごとのハッシュ書いてくれるんじゃないかな 今NAIのリークに手をだしてるやつなんて
PCもSDも詳しくて何が起きても対処出来るような奴か、命知らずのアホかの二択だ
オレは後者だ! まさかNAIがリークを本物と認めるとは思わんかったなあ。
アレで手を出したやつが多いはず。 SHA256
animefull-final-pruned内のmodel.ckpt
89d59c3dde4c56c6d5c41da34cc55ce479d93b4007046980934b14db71bdb2a8
animevae.pt
f921fb3f29891d2a77a6571e56b8b5052420d2884129517a333c60b1b4816cdf
modulesフォルダ
(データのみ): 2c74d5c54d5e4990eb335ac3760566d62967e1c2e47824d92674b46589af2dc1-00000004
(データと名前): 86f8361075167f1f71ec233d477ca70f4d153d5ee39c77c9c37e956d2f7423dc-00000004 >>825
微妙に違うものが生まれたのですが何が原因なのでしょうか…
xformersもいれました
https://i.imgur.com/jHqVNpH.jpg >>879
>>880
cross leggegは多分typo
cross leggedにしたら同じの出たわ >>881
なるほど!ありがとうございます
気づいたのすごいですね xformers使うと毎回出力が変わるらしい
本家NAIもそうだと思う 設定全部合わせたけど全然違うの出力されるなあ
どっかミスってんのかな… >>883
本家で「同じ数値なのに何かが微妙に変わる」って言われてたのはそれか
お気に入りのプロンプト弄る時はオフにしたバッチファイルとか作っておいたほうがいいかもな とりあえず本家NAIお試しでお布施してみっかなあ。どれぐらい凄いか肌感覚で知っときたい気もするし。 Twitter見ててもみんな虹絵にしか興味ないように見えるんだけど、
リアル系志向の人はいるだろうか。
Dreamboothで好きなアイドル再現してるけど
日本人のかわいさはパーツの絶妙な配置で成り立ってるようで、顔が若干崩れるだけで可愛いと思えない感じになる。
Web UIのRestore faceを有効にすると整うが、本人からは離れた整い方になったりするのでこれも難しい。
Dreamboothの学習枚数、ステップ数の問題なのか、プロンプトの問題なのか、inpaintの使い方なのか、
虹絵にとってのWDみたいなベースモデルも無いし、知見も中々出てこなくて苦労してる。 3080ti買って持て余してたけどようやく活用できた
10連ガチャが30秒くらいでできるのは良い フォトリアルはフェイク系絡むから結構みんな慎重な感じだなあ。
海外勢探した方がいいかも知れんね。
時々、ハリウッドスター混ぜたのとか年齢いじってたりするの見るから。 >>887
エロスレにもリアル派がそこそこいるけど、リアル過ぎてアップできねーんだわ
特にロリはマジでやばいレベルが出ちゃう
ただ、情報交換はしてるからそっちで聞いたほうがいい dreamboothは二次でも全然情報不足だ
まともな精度とプロンプト反応性を両立できてるやつがどれだけいるのか wifeってめちゃくちゃ金かけてるっぽいのにNAIに一気に話題持っていかれてカアイソウ
しかもモデル流出のおまけつき 柳の下の泥鰌をつぶす、いい宣伝リークだったな(すでに過去の話) ?waifuは流出も何も最初からオープンじゃ無いか。 >>894
ごめんそうじゃなくて、NAIのモデルが流出したせいでローカルで使えるというwifeの利点もなくなっちゃったって意味 ああ、そう言う意味か。それなら1.4で巻き返すと期待してるんだ。
NAIの全容を文字通り丸裸にして知っちゃたわけだからw 金かけりゃいいってものじゃないし
質が追いつきゃなきゃおいていかれるよ
ザッカーバーグが1兆かけて作ったメタバースでもやってろ NAIみたいな絵柄をみんな好きってわけでもないんだよ そう言えばツイッターでAIの学習妨害にノイズかけようぜって人が
デノイズのあるSDには意味ないだろって馬鹿にされてたじゃん?
あれ実は間違いでSDはビックリするくらいノイズに弱くて簡単に妨害出来るんだよね
もともと現状のAIは人間の目に比べてノイズに弱い傾向なんだけどSDはノイズから絵を復元する性質上
妨害用ノイズに絵の要素を見出してしまって滅茶苦茶な結果になる
なお実はこの方法でツイッターの規制AIも誤魔化せるってのを一部の絵師は知ってて昔から利用してる
ここの連中が思うより絵師連中は研究してんぞ xformersをttps://rentry.org/sdg_FAQにしたがって入れたんだがエラー吐いた
原因わかる人います?
https://i.imgur.com/vwPqvsn.jpg module内のフォルダにないのはそうなんだけど入れるように指示されたのはrepositories内だからよくわからん xformersを入れてから?何か挙動が安定しないな
waifuでリアル画像が出てきたりする NAIで企業の透かしとか出ないから
絵としての要素を学習した上で、余計なゴミとして排除されてるんだろう。 ネガテイブで抑えてるだけだし版権だと普通に公式のロゴとか出てくるし >>900
それってDreamBoothとも関係があるのかな
拡大/縮小による画質劣化で学習失敗とか ロゴなんかが学習されるのは、要素として覚えてしまうぐらいしつこく同じものが同じ系列の画像に入ってくるからだよ。
だから映画のポスター系のタイトルとか本の表紙のタイトルなんかも覚えてて、SD1.4では割と良く出てくる。
が、学習してるのでtitleとかlogoとかでネガティブで弾くことが可能。
逆に学習しないほどうっすいノイズは学習されないので、promptに反映されない。つまり敵対ノイズとして役に立って無い。
要するにどっちに転んでもあんまり影響が無いのよ。promptでバイアスかけた方向にノイズを操作するのが拡散方式だから。
もっともワンセットになってて片方だけ弾くのは難しいって言うノイズもあるけど、これはちょっと例外だな。
京アニ突っ込んだら、日本要素満開で桜が咲いたり富士山が出てくるようなものだから。 Curatedの方はNAIで再現できない感じですか? >>528
これどういう事かわからんかったけど
"vaeの方は、ckptファイルの(名前にあわせて、vaeになってる)拡張子をvae.;ptにして配置"
であっとるか? xformersのビルドに40分かかった(ryzen2700)
生成速度のためにじっくり待とう AUTOMATIC1111版のwikiにWindows向けxformers導入方法ってあるけど必要以上に難しくやってる気がする
VS Build ToolsのDesktop development with C++を入れるのとCUDA Toolkitを入れる以外linuxと同じ手順でいいはずなんだけど
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Xformers#building-xformers-on-windows-by-duckness
自分は一応これで出来た
https://rentry.org/sdg_FAQ#building-xformers docker版は動くけど脳筋にはファイルのGUIないの辛いしローカルで入れなおそうとして
自分もパス通らなくて、おいマジかよと環境変数とおしたり再起したりpythonいれなおしたり
結局webui.batとwebui-user.bat見間違えてたわ。 >>908
知ったかた君がこのスレ多くてほんと困るわ
勉強する気がないなら実際にノイズ加えて試してみろって
少しのノイズで認識めちゃくちゃになるぞ 「ノイズ」って単語がふわっとしすぎててなんの話してるのかよくわからんけど
相手を格下扱いして反論するのに「お前がやってみろ」ってのはおかしくないか?5chでは昔からよく見かけるが
「AAAはBBBだ」
「どこにその情報あるの?」
「お前が自分で探せや」
自分が具体例を見せるのが一番説得力ある TIで右下にロゴ入れた画像だけで学習させてから、出力結果どうなるか?とかそういう話? 技術スレじゃないんでふわっとしてるのは仕方ない
CNNの話でもするか? CNN?
VAEで潜在空間に落とした時に、ノイズを加えた画像と、ノイズなし画像が近い場所に落ちるかどうかって話じゃない? 単語がモノ単位に結びついている場合と画像そのものに結びついている場合があって例えば映画のポスターの概念の中にタイトルロゴが入っていてロゴがないものはポスターとして判別されない
許容範囲を広めればロゴなしも出力されるようになるが今度は指4本でも「手」と判別するようになる
ライオンを猫の仲間だと認識するAIに猫の絵を指示すればライオンの絵も出力される可能性がある お? 朝起きてpullしたら1111からckpt選択するプルダウンが消えてハイパーネットワークのプルダウンしか残ってない?
何が起こった? xformersの導入が上手く行かないしどこが間違ってるのか分からない
ビルドまではできたんだけど
SDとxformersの説明が実環境と仮想環境がごちゃごちゃで書かれてて、引数付けると直で実行してもvenvから実行しても動かせない ああ、セッティングじゃなくてトップに来るようになってたのかw
確かにこっちの方が便利だけど、まったく予想外の場所だから気がつかなかった。
自己解決。 >>918 の画期的な技術をAIジャマーと呼ぶとして、人間絵の全てにAIジャマーを実装すればAIはきっと瓦解する
みんなでアメリカ政府に嘆願しよう >>915
基本がわかっておらず、5.Then install the rest of the dependencies:で
つまづきました
pip install -r requirements.txt
ERROR: Could not open requirements file: [Errno 2] No such file or directory: 'requirements.txt'
自分の頭の悪さが辛すぎる ランダムなパターンで色を反転させたり色相を変更したりしたらどうだろう 5chでも4chanでも3次エロが全然ねンだわ。2時エロと技術的には変わらんだろ。単に需要の問題かね 1ヶ月くらいAIから離れてから戻ってきたらガチでウラシマ状態になりそうな発展の勢いだな。毎日更新されすぎてる上に説明もないから調べないとわけ分からん
ぞれはそうとRTX4090あったらどんくらいの勢いで画像生成が出来るかめちゃ気になるなあ。機械学習に強くなるとか言ってたし1秒で8枚生成とかいけんのかな 二次エロは奇形が生成されても笑って流せるけど三次の奇形はキツいからやりたくない説
ディープフェイク問題が向こうではマジで脅威に捉えられてて虎の尾を踏むような真似はしたくない説
単純に二次エロが好きな奴ばかり説
好きなのを選べ >>933
お前が第一人者になるんだよ
さあエロスレに帰るぞ >>933
3次元エロ画像をタグ付けするサイトってないよな🤔
大量画像への自動タグ付けでもいいんだろうけど >>933
nude girl, beautiful loli face, white skin にネガティブで nigger とか入れてがちゃった画像は
幼ポにど真ん中で引っかかる上ポリコレ&人種差別の格好の的になるからあとはわかるでしょ
スレどころかスポーツエロで板が消されたみたいになりかねないからひっそりすることにしたんだよ
まぁ3次は行きつくところAVで十分だろうっていう落としどころがあるから。エロ雑誌より動く方が需要があるしな 実際あうろり画像はやり方次第じゃマジで通報もんのやつが生成出来る
ぱっとみ本物にしか見えん 前、エロスレで幼女人身妊婦リアルの数え役満貼った紳士がいたけど、さすがのエロスレ民もドン引きしてた出来だったな 出来が良すぎてSPA!の「これが東南アジアの貧困と実態だ! 家畜より安く売られる少女達」とかいうキャプションつけて黒塗りしたらフェイクになりそうなレベルだったわ。 NAIって結局新しい技術みたいなのは使っていたんか? お、Waifu1.4に動きが。もう取りかかってるのか。 >>943
NAIうんぬん以前にStableDiffusionで調べれば詳しいサイトが山ほど出てくる
NAIも同じ技術を使ってる
ただひとつ言えることは3060のVram12GB搭載マシンがコスパ最強 >>946
なるほど
そのくらいでいけるならいいな
50GBとか見てこりゃムリやろと思ったからさ leak版novelAIの周りを論点整理するとこんな感じか
[法的論点]
・著作権法(複製権侵害)に違反しないか。
流出したモデルは著作物か。
著作物とした場合、それを知らずにその複製を作成することは重過失までにとどまるか
・不正競争防止法に違反しないか。
営業秘密でないと保護を受けられないところ、流出したモデルが公開されているが非公知性を満たすか。
また秘密管理されていたか。
営業秘密に当たるとした場合、モデルの使用は営業秘密の2次取得者による取得又は使用にあたるか。
ハックした者はおそらく日本人ではないと思われるところ、novelAIの運営会社は日本において事業を営む事業者か。
・上記いずれかに違反していた場合、法執行可能性はどの程度か。
[経済的論点]
・leak版にかかる諸費用(PC/GPU・電気)はどの程度か。
・利用による住環境の改善(排熱による暖房)/悪化(騒音)はどの程度か。
・上記と比較して正規版25ドル/月は優位か。不利か。
[技術的論点]
・leak版に悪意のあるコードが含まれていることはないか。
・悪意のあるコードが含まれているとしてそれに対して技術的に対応可能か(ネットワークから隔離するなど)
・今後のアップデートは望めないが、改善方法はあるか。
・改善方法がない場合、現況で十分か。 >>948
長ぇよ
スレ的には最後の技術的なことだけでいい
リーク版の扱いは全て自己責任!以上!
グレーゾーンはグレーゾーンでほっときゃいいんだよ
法律うんぬん論じたければよそでやりゃいい >>948
情弱もひっくるめて自己責任。手を出すかどうかは義務教育の知識があれば判断できるだろ。
この手の暴走は誰かが訴えられるか捕まるまで止まらないんだから討論したければこちらでどうぞ。
【Midjourney】AI関連総合10【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1665312817/ サイトに書いてる通りに何回やってもgitのパスが通ってない言われて頭抱えてたけどpc再起動したらあっさり成功した…半日を無駄にしたわ >>951
導入おつかれ
誰かが同じように困ってたら助言が出来るようになったじゃないか
その犠牲、無駄じゃないぜw >>952
多分ここでつまずく人多いだろうからな
それにしても111はNMKDに比べて設定項目が多すぎてワケワカメや Dreamboothって種類多いけど、みんな何使ってるん? >>951
環境変数を変えたらコマンドプロンプトを再起動して反映させるのじゃ プロンプト入力って見方によってはAIとの対話に見えなくもないし将来のスカイネットになるかもな NovelAIで一度つくった絵をアップデートしようとしたら
Image with Metadeta found!
ってでたんだけど、これどういう意味なのでしょう? >>957
画像の表面では見えない文字データなどが含まれた画像ですって意味
そこに個人情報とかが含まれる場合があるから警告してるのかと
気にしなくて続行できるならやっちゃっていい webuiやってみようと思ったけど導入記事とか他のサイト見ながらやったらuser.batか起動しなかったわ
なんでだろ >>959
独り言なのか解決方法が知りたいのかどっちや
エラーが出たならまずは自分の環境とエラーのスクショを貼れば誰かが答えてくれるかもしれん DreamBoothやってみたら全然似ないんだけどステップ数が足りないんかな?6枚学習させて1400stepくらいなんだけど
髪色も学習元と違うし似る以前に顔が破綻しとる…WaifuDiffusionだから大丈夫かと思ったのに
http://i.imgur.com/xg11GOA.png >>959
windowsならpythonのバージョンとかきっちり合わせておかないと
なんかうまくいかないみたいになりやすい >>961
全身はむずいと思う
まずは顔だけやってみたら?
他人がやってるの見てもSDか顔アップのみだし >>963
スーパーデフォルメのSDね まぎらわしかった 顔の面積少ないと、基本的に出力でも崩壊するしね。
学習で失敗してるのか出力で壊れてるのか、全身絵では分かりづらい。 >>961
安定し出すのが5000ステップくらいからで、過学習になるのが2万ステップくらいだった気がする SDキャラってスーパーデフォルメの略やったんか……(衝撃) >>961
俺はTIしか触ったこと無いからdreambooth事情は分からんけど、
学習は素材次第な面が結構あるなと思う >>961
枚数でステップ変わるみたいだから
まずは画像を上半身でやってみたら >>963,965,969
確かにそうだわありがとう
いつもStableDiffusionでfullbody portraitって付けてるから癖で付けちゃったけど今回は無い方がいいね
>>966
そんなに要るんだ
今回ですら1時間くらいかかったし5000だとめっちゃかかるなー
>>968
色々試してみるわ >933
ロリにもNovelAIみたいなアニメ絵にも興味がないので、greg rutkowski and alphonse muchaとか使ってきれいで気前のいいお姉さんを出しているんだけど仲間が少ないことを実感する
>938
自分の好みの範囲ならAVでいいじゃんというのはできた画像だけならその通りなんだけど、それを自分がパラメータを工夫して出した満足感みたいなものはあるよね ディスコのイベントキタ。waifu1.4は11月15日メドらしい。 初心者質問で恐縮なんだが、novelAIとかtrinartとかでなんでプロンプトの記述方法がちがうんだ?
移植が地味に面倒なんだ。 >>973
学習のさせ方が違う
SD1.4はほぼ自然な画像の説明文から
WD1.2はdanbooruのタグそのまんまから(とSD1.4の残滓)
WD1.3はdanbooruのタグの無駄なところを削って
NAIはdanbooruのタグと自然言語を若干ミックスして
trinartはdanbooruのタグと若干の指示語から
という有様なので最適な指示の出し方が違う 謎文字とかうにょうにょうしたの消すのに何ネガティブに入れたらいいんだろ https://i.imgur.com/zYEAd9P.jpg
webui起動してたらこんなの出てきたけどつまるところどういうとこや🤔 次からワッチョイ進行で
反対するのは自演で伸ばしたい荒らしだから無視で >>975
text,letters,speech bubble でだいたい消える >>976
GPUがCUDA(GPUを使った計算)に対応してへんのに、TorchってAIのベースを動かすにはCUDAが必要としとる、だから動かされへん。って感じのエラーやないかな
Nvidiaの900番台以降のGPU刺さっててそれならどっか指定ミスって内蔵GPU参照しとるかもしれへん。あるいはCUDAのドライバが上手くインストールされてへんのとちゃうか。知らんけど まぁ公式的なスレなのにあつまらんって事は自演で伸ばしてるって事やろな >>982
それ
なんでこの板でここだけワッチョイ付いてないのか気になったけどそういうことだったんだね まぁどのみちIDなしスレなんてゴミ化しやすいから
そのうちお客さんが来たら機能しなくなるだろうな
あんまり他所にヘイト押し付けすぎない方がいいぞ むしろワッチョイ付けない理由が知りたい
いままでたまたま運よく問題なかっただけだと思うなぁ…
こういう所の方が狙われやすそうな気がするし 突然現れる単発やSDの話題について語らないIDたち
なぜかワッチョイをつけたくてたまらない人々 >>989
ワッチョイ付けない理由を語らないIDたち…… 俺のAIについての持論を聞け(ほぼ妄想)おじさん達と似た空気を感じる NAIちょろっと触ってみた。
これ、ネトゲなんかの画面も食ってるなw このIDいつもデブキャラ生成の話してんなとか思われたら恥ずかしいし 自分でたてると恥ずかしいから誰かにたててってこと?(*'ω'*) スレが終わり近くなると湧いてきて、今まで議論どころか話題にすらなっていなかったワッチョイを勧められてもね 話題になってもワッチョイにはデメリットが大きいという意見への賛同が多かったこと、住人なら知っているはず このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 8日 0時間 54分 22秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。