【StableDiffusion】画像生成AI質問スレ02【NovelAI】
レス数が950を超えています。1000を超えると書き込みができなくなります。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>980が立ててください。
テンプレは>2以降に controlnetからの画像生成とi2iってどっちのほうが精度高いんだろう? アニメイラストの時はRestore facesチェック入れるな定期 商用利用についていまいち分かってないのですが、stable diffusion自体は商用利用OKだけど使用するモデルによってはNGということで合ってますでしょうか?
今abyssorangemix2を使っているのですがこれは複数のモデルが融合されているみたいなので、融合元に商用利用NGが含まれていればabyss自体もNGという感じになるんですかね?それともNGのモデルに融合という形で変更を加えているため別扱いとなるのでしょうか? >>856
あってると思われ
aomは3がchilloutmix入ってて商用不可とかじゃなかった
だいたいダウンロードするところに書いてあるよ
モデルに何が混ざってるかなんてこっちが調べるなんて実質不可能だからそっち見た方がいい
chilloutmixも途中から諸々不可になったけど不可になる前にダウンロードしたやつは知らなかった自分が取得したときには書いてなかったで多分使っていいんだよね
法は遡及しないのと同じで
でもまあ、modelの使用自体どこにも痕跡残さないことは今は可能なわけでわかりゃしないのに従うかは良心だよね SuperMergerでモデル2つ選んで「Merge!」ボタン押すと
AttributeError: 'Namespace' object has no attribute 'upcast_sampling'
が出てエラーになるんですがおま環ですかねこれ?そもそも使い方が間違ってる?
ググっても情報がなさすぎてわからん… モデル情報って電子透かしみたいに埋め込まれてるの? 加工したら全ての情報消えてね?
掘り起こしたり透かし入れたりみたいな新技術出てるなら知らんけど 一度加工してpsdやclipファイルにしてもモデル情報残ってるの? 自分の記憶でもできないはずなんだがもしかしたらできるのかもしれんのでロダにあげてきた
ただのミクさん
https://imgur.com/vNFu2BB
https://imgur.com/U7poLT1
https://imgur.com/9UpMCtB
モデル名分かったらわかるってことで試してみてくれ
一つはmodelのファイル名を変更してみている
modelの中に埋め込んであるなんらかの情報が読めるのかmodelのファイル名がどこかに出てくるのかわからなかっなから 規約守らずモデル使いたくて必死なのキメえな
マネタイズスレ行けよ 知識と技術としてできるかできないかしかしてないんだが
なんでそうなるんだよ
意味がわからん 興味ないからそんな挑発に乗る気はないけど、理屈だけ言っておくと。
SDの透かしで使われているのはウェーブレット+離散コサイン。
画像ってさ、昔のBMPやGIFと違って、今のJPEGなどは不可逆圧縮。
これ保存時に何をやってるかというと、ピクセルの2次元配列を波形データに変換してるのよね。
その中の特定の周波数を暗号に使ってて、輝度を変更したり、一部書き換えたり、ノイズ加えたりなど
多少の加工なら影響がなかったりする。 マネタイズに嫌悪感あるんだろ
権利者は人力のイラストは見逃すけどAIイラストはだめとか根拠付かれると苦しくないか
法的には検挙できても そりゃやばいな
うっかり割れNAIなんかでCG販売してると訴えられる可能性大だな 挑発すらしてないのに
気難しいやつだなあ
そこからどうできるのかはわからんけど
ざっくり翻訳するならお前には出来るが普通にゃできないであってるのかな 毎回こういう流れになってまともに質問したい人が尻込みするようになるからクソなんだよ AIモデルもAI画像も著作物じゃない見方が強いから
ライセンスどうたら言っても無効だろうと思うけどな
機械が作ったデータは根本的に「思想又は感情を創作的に表現したもの」から外れる マジで質問スレじゃなくて変な奴の日記垂れ流しになって草
最初に始めたやつ責任取れよ そうだそうだ責任とって出産loraうpしろ
モデルはanythingでいいぞ civitaiで数日前に見た気がするけど、birthで検索しても卵とモンスター出産だけだな >>872
アメリカのあれはプロンプトのみのmjが対象だからな。
cnなんかでかっちり構図制御してたらまた判断し直しだよ。 出産かあボテバラはあったけど
おぎゃあは見たことないな ポーズだけ学習させることって出来ます?
顔も体もセットで学習しちゃうんですよね >>879
ある程度は仕方ないね
むしろ今はポーズはcontrolnetでやるのが主流 >>855
そんなのがあったのね
ありがとう
仕事終わったら試してみるぴょ >>880
あーなるほど
Dazでキャラ作ってポーズ決めてそれ覚えさせようとしたけどそういうのもあるんですね
ありがとー 漫画って作れそう?
崩さずに2人が抱き合ってるような絵まだ見た事ないけど進化早いし期待できる? 百合は興味ないんや
竿役は汚いおっさんで出したいんだけど見た事ないわ いうほどないんか?
DepthmapとOpenposeとComposable loraとでガチガチに構図固めてガチャれば出そうだけど Depth作る時の種は百合で作って黒で削ったりスポイトで太らせたり 今NMKD版使ってるんだけど、1111版のほうがいいの? NMKDってLora使えるんか?
まあそもそも各種拡張機能使えない時点で移行するべきやけど >>891
NMKDで始めてしまう被害者を少しでも減らしたい、と思っているぐらいには >>887
私見だがモデルもそうだしLoRAに無茶苦茶引っ張られる、出て来てもイケメンマッチョ化したりもする
のとネガティブに skin spots, acnes, skin blemishes, age spotみたいなのは外した方がいい、女を盛ってれば盛ってる程出にくい感触
ハイクオリティも避けた方がいい、我慢できる限界まで下げる
あと向こうのポルノシチュエーションワードとか詳細に書くと似たようなのがでる、red hairやtatooのアバズレにつられて出てくる汚いオッサン大杉
完全にコントロールするのは難しいからi2iの方が楽だと思う このPCでローカルで1111版Stable Diffusion WebUI問題なく使えそう?
GALLERIA RM5R-R36 4500
CPU ryzen5 4500
グラフィックス GeForce RTX 3060 12G
メモリ 32GB (16GBx2) (DDR4-3200)
SSD 1TB SSD (NVMe Gen3) >>894
NovelAIの時も対面座位出そうとしたら顔とか特に目が崩れやすくて納得いく絵が出たとしても塗りとか一気にクオリティ下がってたな
今だとi2i使えばまともなのできるかな >>895
chat gptに聞いてみた。笑
お使いのPCは、十分に高性能であり、Stable Diffusion WebUIを問題なく使用できると思われます。以下は、その理由です。
CPU: Ryzen 5 4500は、十分な性能を持つCPUで、Stable Diffusion WebUIに必要な処理を実行するのに十分な能力があります。
グラフィックス: GeForce RTX 3060は、高性能であるため、グラフィックス関連のタスクを快適に実行できます。Stable Diffusion WebUIはグラフィックスを多用することがあるため、このグラフィックスカードは大きなアドバンテージとなります。
メモリ: 32GBのメモリは、Stable Diffusion WebUIの実行に十分な容量です。これは、複数のタブを同時に開いたり、大量のデータを処理するために必要です。
SSD: 1TBのSSDは、高速で読み書きができるため、Stable Diffusion WebUIの起動やデータの読み込みが迅速に行われます。また、NVMe Gen3のSSDであるため、より高速にアクセスできるため、大きなメリットとなります。
以上の理由から、お使いのPCは、Stable Diffusion WebUIを問題なく使用できると思われます。 >>898
chat gptってこんな事まで答えてくれるのかよw
値段がモニター込みで20万ちょいくらいになりそうだけど買おうかな 二人以上出したいんだったら
一人一人を別々に出してから
その後に画像編集ソフトで編集した方が
いい気がするけどね 人物なら1人、物なら1つでいいのに、数人、数個出てくるのを防ぐにはどうしたらいい?
「one」や「1」や「solo」や「alone」を付けても変わらなかった >>903
A lonely girl abandoned by her parents.
数を限定するシチュが大事な模様 4090でCPUも13世代の一番いい奴つかってます
コードちょっと端折りますが
train_batch_size=14 max_train_steps=10000 解像度512x512
とかにしても4時間くらいかかるんですがこんなもんなんでしょうか?
みなさんもっと早くやってるように見えるんですが >>905
文章を理解できるんだ
シンプルに単語にしたほうが確実だと思ってた
ちょっとやってみる >>898
ChatGPTは去年のことはデータに入っていなくてStable Diffusionのことも知らないと思ってた >>904
プロンプトに isometric を入れます
下のプロンプトは「isometric skyscraper」のみです
(Stable Diffusionの公式学習モデル(v2.1)で確認)
https://i.imgur.com/HKzrk1n.jpg >>906
自己解決しました
教師が少なくて、最大エポックを決めずに最大ステップだけで設定すると
エポック数がかなり増えて、かなり時間かかるんですね ChatGPTのアカウントのメアドヲ変えたいのに
変えられそうにないから退会したんだが
別のメアドと前回と同じ電話番号でまた垢作れるんだろうか
誰か試しにやってみてくれ
てゆうかやれ 巨乳で色が濃いパフィーニップルでちょっと下付きの乳を作りたいです
いや誰か作ってください もう何から何までAIだな
そのうちシコピュしかしなくてよくなるだろこれ >>911
いいえ、これはBingではありません。私はChatGPTと呼ばれるOpenAIによって開発された大規模な自然言語処理モデルです。BingはMicrosoftが開発した検索エンジンです。私はBingとは無関係で、質問に回答するためにプログラムされたAIチャットボットです。 >>908
gptに直に聞いたらwebで収集した2020年ごろのデータベースに2021年9月に外部から追加情報入れてて、
それ以降はチャットで覚えた事で回答してるぽい 手招きというかエッチにCome onって言いそうなポーズを取らせたいんだけど、なんて書けばいいの? ポーズはプロンプトじゃなくてControlNet使うの一択定期 >>918
img2imgで似た構図の漫画やら拾い画でdeepboolu使ってプロンプト探した方が早いぞ >>863
他の人がある程度答えてるので補足になるが
SDで作ったPNG画像をテキストエディタで開けばわかるが
最初の方にプロンプト~モデル情報までテキストで
SD固有のオリジナルのメタデータが記録されてて
他のソフトを通して再保存するとそのデータが消える
WEBにある画像のアップロードするものは
画像を再圧縮するもの(imgurやtwitter)とそうじゃないものがあって
前者の場合はメタデータが消える
逆にメタデータを残したままWEBに上げたい場合は
画像以外も扱えるファイルアップローダーやファイル共有サイトを
使うと確実 クラウド版でエロ画像出力するとbanされるってマジ? LoRAの学習のtxtに書くやつあるけど「呼び出しキーワード」+「学習から外したいもの」ってのよくわからない
「学習から外したいもの」とか言ってるけどtxtにタグ付けしたものを学習させてるわけだよね?
生成時プロンプトに含まないからその特徴が出ないというだけで学習自体はしてるよね?
あとなんでわざわざキャラの特徴を消すようにするのか分からない
キャラ名1語だけで簡略化したいという目的ならそうなのかもしれないけど
キャラの特徴タグ付けして学習させてキャラ名+キャラの特徴を生成するときのプロンプトに書くほうが精度高くならないの? >>926
学習はしている
例えばシンプルに顔(face)で一枚をLoRA学習させたら、プロンプトにそのワード書いたら第一順位で最優先でその一枚が読み出される
逆に外したら他のモデルで1万枚学習してる場合、1万ぶんの1の濃度で発現する
実際は異なるが大げさに言うとこう言うこと 最近始めたところですがwebui-user.bat開いたあと
Running on local URL: http://127.0.0.1:7860
が出たのでブラウザで開いてもLoading...と出たまま進みません
これはStable Diffusion側の問題なのかこちらのPC側(セキュリティソフトとか)の問題なのか
どうなんでしょうか 顔復元繰り返し10回もかけると奇形顔がどんどんまともになるな
おもすれー
顔だけまともでそれはそれで奇妙だけどw pixivに転がってるキャラほぼ完全再現してるエロ絵ってどうやってんだろ
i2i使ってひたすら学習させてんのかな >>925
日本人の求めるエロ画像なんて
ぎゃーじんからみたら大体ロリやぞ?
あとはわかるな? >>932
deepdanbooruでタグ出して
cannyにすればいけるんじゃね?
そこから絞ってタグ増やしたり減らしたりして
openposeにしたら近いけど別の絵できそうだけど https://civitai.com/models/4468/counterfeit-v25
このモデルのEasyNegative.safetensors24.7 kBってptファイルと一緒にembeddingsフォルダに放り込めばいいですか? >>932
10~50枚ぐらいの素材を集めて追加学習ファイルを作って、それを適用してる
今は追加学習精度も高いから既存のキャラはだいたい模倣出来る >>936
そこに挿入れてLoraと同じボタンで出てくる
Negativeの欄にカーソル合わせた状態でボタン雄とプロンプトが入る アニメ塗り最高のモデルや設定とかってなんですかね
ふわっとしてるものとか個性強いものが多くて上手くいかない
NAIが1番近かったり 初心者スレだからってめっちゃ適当なこと言う奴おるな 写真をまともに描画するのは難しい?
というか無理? >>942
と言うか実車さながらの写真が
蔓延してるんで違いが分からんよ >>942
映画やインスタ見て違和感がない目の人にはすでに到達して見えるだろ? めっちゃ可愛い顔生成できたけど全身ポーズにすると途端に顔が崩れるのはなんでや? 全身描画するよりバストアップだけ描画する方が顔に集中できるからそりゃそうよ >>945
仕様
大抵のモデルは遠景の顔の学習量が少ない NovelAI時代とか人物の描写良くする為にupper bodyとかface focus使ってたなあ 解像度の問題じゃないの?
体を映す面積を2倍にしたいなら解像度も2倍にすればクオリティを保ったままになるんじゃないのか 実はSDは学習した内容を拡大したり縮小したりして描画することが出来ない
近景、中距離、遠景、全部別々に学習してる
なので学習量が少ない遠景や全身描写はクオリティが下がるという残念な仕様なんだよ レス数が950を超えています。1000を超えると書き込みができなくなります。