【StableDiffusion】AI画像生成技術13【NovelAI】
レス数が1000を超えています。これ以上書き込みはできません。
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの【具体的な】技術や動向について語り合うスレです
AI画像生成の未来や、イラストレーターの職権侵害等の漠然とした一般的な話題は明確に【禁止】します
以下のスレッドへ移動してください
【Midjourney】AI関連総合25【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1671824170/
AIイラスト 愚痴、アンチ、賛美スレ part21
https://mevius.5ch.net/test/read.cgi/illustrator/1672631052/
エロ画像の生成については以下のスレッドへ
【NovelAI】AIエロ画像情報交換 11【Waifu】
https://mercury.bbspink.com/test/read.cgi/erocg/1672908946/
なんJNVA部★125
https://fate.5ch.net/test/read.cgi/liveuranus/1673029370/
テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術12【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1670898879/ 立て乙!
最近はローカルでのdreamboothを楽しんでる。 自称絵師の変な人やお気持ち様が大量に湧くようならささっとワッチョイ移動しようにゃー macアプリのAmazing AIはStable Diffusion with CoreMLに対応しているそうで実際試してみた人はいないかな
最速のmac studioで3060と同じくらいの画像生成速度らしく、もうちょっと早くなってほしい感じ M1 UltraのGPU性能が3090以下なので速度はそのあたりが限界なんじゃないかな
でも今月出るSDの新バージョンは20倍以上の高速化が謳われてるので3060やM1でも1秒くらいで生成できるらしい ちなみにMacでAIを本格的にやりたいなら3060などを積んだLinux PCを10万くらいで用意すると良いよ
Automatic1111やInvokeAIなどのWebUIはサーバ機能も付いてるのでOSを問わず(つまりMac上からも)WindowsやLinuxと全く同じ機能(学習含む)を使えるようになる Macでイラスト描いててAIを補助的に使いたい人がいたら現時点ではベストな構成じゃないかな WindowsでもAIは別PCのLinuxだな
AIはLinuxが何だかんだで鉄板 騎乗位したいのにちんこしか出てこなくて男の体が出ない;; t2iだと今出てる絵まで変わっちゃうしな…
使ってるモデルに学習されていればそれを引っ張り出すプロンプトを探すしかない
モデル変えるとか学習使うとか追記してi2iやアウトペインティングとかやりようはいくらでもある
と言うかいうか、学習されて無いものを安定して出す方法はないので
学習素材分かるならタグ(トークン)調べる方が早いかも さっさとautomaticくらいちゃんと使える奴のインストール版出してくれ
webUIめんどくせえよ 念のためワッチョイ有りスレ建てといた
【StableDiffusion】AI画像生成技術13【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1673213503/ え?どこ突っ込むところ?オープンソースの最前線の開発中なんてこんなものだぞ
Git for Windows入れたって4つインストールするくらいじゃん
それも10月から変わってないから1度インストールしたらwebUIのアップデートだけだし
webui以外の選択肢だっていくらでもあるのに 大昔からPC触ってるジジイならともかく若者はボタン一発インストールじゃないと扱えないと思う >>10
同じマシンでの画像生成はLinuxのほうがWindowsより早いんだっけ >>22
なぜかLinuxだと推論が2割ほど早くなるね
6割程度に電力制限するとちょうどWindowsのときと同程度の早さになる感じ
そうすると温度が10度くらい下がるからGPUにも優しい ぼっち・ざ・ろっく!のキャラクターを生成できる画像生成モデルが公開
https://huggingface.co/alea31415/bocchi-the-rock-character
いやーほんと酷いな
お前らって犯罪者と同一線上いる >>25
AI絵師は作品内容を評価して、
無料でその作品を宣伝してやっているんだよ?
どうして駄目なのかな?
858 名無しさん@お腹いっぱい。 (ラクッペペ MMb6-q0IN) sage 2023/01/05(木) 14:35:43.74 ID:VxZSwJJKM
>>855
ん?二次創作書かれる=人気ある証拠だし
無料で宣伝してもらってんのと一緒だから すいません、どなたか助けてください
今日NovelAI使おうとしたら
通常の512×768サイズでも8Anlas要求されるようになっちゃったんですけど
レートみたいなのって変わったんでしょうか? ★★★ 注意 ★★★
ここは既存のAI画像生成サービスの【具体的な】技術や動向について語り合うスレです
AI画像生成の未来や、イラストレーターの職権侵害等の漠然とした一般的な話題は明確に【禁止】します
以下のスレッドへ移動してください
【Midjourney】AI関連総合25【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1671824170/
AIイラスト 愚痴、アンチ、賛美スレ part21
https://mevius.5ch.net/test/read.cgi/illustrator/1672631052/ >>9
1ステップで完成形が出るのすごく楽しみなんだけどいつ使えるようになるのかな
DPM adaptiveだったら暴動が起きるぞ 3060の環境で満足してるからもっと早くなったら逆に困惑しそう…w
技術の進歩はすごいなぁ https://twitter.com/emostaque/status/1598131202044866560
1〜4ステップで速度20倍だった
model soonとか書いといてもう1ヶ月か
うちも3060だけどSD v2で512×512が768×768になって生成速度が倍に伸びてしまったし、早くて困ることはないから大歓迎
https://twitter.com/5chan_nel (5ch newer account) >>28
フェアユースってか特許権みたいな扱いだろ?
特許のある機械の仕組みを(他人が)解説する本とか実験キットは普通に売られてるけどそれらを使って金儲けしたら特許権の侵害だよ
人工知能関連も同じ感じ 金儲けしてないから無罪やね、はよ巣におかえり
ワッチョイ無くなった途端にお気持ち様マンこんなに頻度高くなるんだろね colabなんで毎回Settingsの設定が初期化されるのが面倒なのですが
どのファイルが設定に関係しているのでしょうか >>39
ui-config.jsonとstyles.csvいじると幸せになれそう ui-configは更新で互換性なくなったりするから適宜内容異色できようバックアップも忘れずにね かなりわかりやすい名前でしたね…お恥ずかしい…
ともあれありがとうございます! 複数の民族名を入れると、生成された肖像では全体的に特徴がミックスされるんでしょうか?
それともランダムでいずれかが選ばれるだけ? Geforce RTX3060 vram12GB が最多かつ平均値 sd目的だけにグラボ買うのは踏ん切りがつかん
かといってcolabはすぐ制限来るし、paperspaceは使いにくい みんなお金持ちだな!
いつかやろうとckptファイルだけシコシコ集めてるわ >>48
paperspace使いにくいんか?
pro結構ええと思ったんやがなー
電気代と故障気にせんでええのは良さそうやが >>50
なんかUIがもっさりしてる
まあ起動とモデル拡張追加するときくらいしか触らないんだけどさ もともと VR ゲーム用に GTX2060 の 12GB 買ったんだけど、それ使って SD 様で遊んでる。 >>44
4090だけどもう秋田、と言うか検証終了
一旦CGに戻ります
背景かレースクイーン的に合成して使うかも >>8
ネガティブも使えなさそうだし、
パラメタもSeed以外変更できない?
モデルも変えられない感じする
実際どうなのか、使ってみた人おしえてほしい
https://apps.apple.com/app/id1660147028 >>44
普通にゲーム用に買った3070
ゲームしないのに選ぶなら悪手だけど、HNつくる位なら何とかなるし、解像度も1280×960くらいまで出力できるし、生成もまあまあだから言うほど悪くないよ >>50
ローカルのサクサク動く感じとマージや録画データの整理&管理の手間の兼ね合いだなぁ
我慢できる人や使い分けできる人は選択肢が広いというだけ 2070sだから少々きつい
乗り換えたいが今は本当に時期が悪そう >>48
PS5やSwitchとかのゲーム機買うよりも遊べるよ
しかもゲームと違ってソフトの購入もないし費用対効果はかなりいい趣味だと思うけどなぁ >>59
そんな毎日回しっぱなし生成してる人ばかりだと思わないほうがいいよ??
そういうのは一部のコアな人だけです >>60
そうか?
colabとpaperspaceを使い倒すような奴なら学習とかマージとかでぶん回しそうなもんやけどな‥
PCゲー厶もやるならグラボ買っといてもええと思うな >>43
どうなるかは民族名や見た目をどう学習しているかによる=使うモデルによるんじゃないかな
ブラウザから無料で画像生成できるページがあるから試してみては
前スレ981から
https://memeplex.app/ モデルはSD1.5/2.0(2.1じゃないのが残念)、OpenJourneyなど限られる
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える つ https://lexica.art/
今やモデルが乱立してあまり役に立たないが >>64
モバイルだからID変わってると思うけど、サンキュー
これはckptでなくサイト上で動作させるものなんだね
初心者過ぎて何がなんだかw 皆SD1.4を使ってた初期はLexicaも多少役に立ったんだけどな
今は試しに生成情報を打ち込んでも全然再現できなかったりする >>62
ありがとうございます
なんとか良い感じにできないかやってみます
ローカルでもsd2.1系を使ってみたいのですが
自分の環境だと真っ暗な画像しか生成されないんですよね
yamlも用意したのに何がいけないんだか… ちょいと聞きたいんだけど
ネガティブプロンプトを ( ) で強調した場合って
プロンプトのベクトルを強調したネガのベクトルの逆方向に遠ざけるって認識で合ってる?
例えばネガに(((((bad)))))と入れたらプロンプトがgoodの方向に寄るって事でおk? >>69
厳密には、プロンプトとネガを合成して使うのではなくてそれぞれ別のところで使うって見た事あるけど、引き算してるっていう詳しい説明も見たので謎。多分前者 >>69
あってる
厳密には CFG * (P - N) が計算の一部に使われるので、Positiveと真逆のベクトルをNegativeに置くと
値がデカくなって出したいPositiveが明確に出る、らしい みんなありがとう
ということはディティール細かくしたければ
ネガに(((low detail)))でもいいってことか 概ねそんなところだが学習素材(いわゆるモデル)とプロンプトの組み合わせによってはほとんど何の影響もないこともある
大まかにはlow detailタグが付いた学習内容の影響が下がる程度で、英語で指示を出せるって訳ではないからねぇ
実際ネガティブの影響に関しての詳細は闇の中で、ロジック的にこうだっていうのはあっても賛否両論あるところで今後解明が進むだろう
人間の目には高画質の素材でも自動タグ付けのAI判定ではlow detailを付ける場合もあるし
SD2.xで選別に使われた美的判定に使われてるものも結構外れてると思うし、平たいアジア顔は美人に入りにくい微妙な数値だし ネガティブで信用どころか期待していいのは色だけ
って師匠が言ってた そもそもネガ部分に強調を処理するコード入ってるの?
ネガってSDの標準じゃなくて各自独自の実装でしょ >>48
SageMaker StudioLabおすすめ basil mixで実写のようなのやってるんだけど
指とか足とかがおおすぎるんで
減らすコマンド教えて欲しい 次スレは>980が立ててください
>1だけどテンプレに入れ忘れていた ネガティブプロンプトについてはこの記事が参考になりそう
Stable Diffusion のネガティブプロンプトとは何か?|七師|note
https://note.com/tomo161382/n/n015ec7eca405 >80
ネガティブプロンプトに extra digit extra limbs mutated limbs あたりを入れるのが一般的と思う、ただしどれが効くかはモデルにもよる
https://majinai.art/ などでいろいろなプロンプトを見てみては
なんJNVA部★127
https://fate.5ch.net/test/read.cgi/liveuranus/1673292474/
はもともとNovelAI専門だったのが、今はbasilも含む各種モデルを試してみる話題が多い
テンプレにある「よくある質問・呪文集」 https://seesaawiki.jp/nai_ch/d/ も、NovelAI以外でも使えるプロンプトが多いので参考に いつもは入れないloraしてみるかとloraで一晩回したら元と全く変わらないDBが出来上がったわ
時間と電気代返せマジファッキン 超初心者の質問ですいません
Basil_mixを使おうと思って説明を読んでたら
「VAEにStabilityAIの「vae-ft-mse-840000」を用いること」って書いてあったんですが
リンク先にとんでも拡張子が.ckptのファイルしかありません(335MBのやつ)
どうしたらvaeファイルのダウンロードができるのでしょうか?
恥ずかしい話ですが他のモデルもモデルをダウンロードしてもvaeのダウンロード方法がわからなくてnovelaiのvaeを使い回しているような奴なので、わかりやすく教えていただけたら幸いです 拡張子変えるだけでいいんか!
ありがとうございます 解像度、みんな高めにしてるの?
3090だけど、上げすぎると
キャラが分裂したり2コマになるから
768×960を基本にしてるんだけど。 一発出しだと今のところその辺りの解像度が限界だと思う
SD2.0系とか学習解像度が高いモデルならもうちょっと行ける気もするけど、今は肝心のモデルがね 一発出しで1024x1600とか1920x1088とか常用してるけどモデルとPrompt次第やねSD1.x世代でも 実際に効果あるんかは知らんけど、(solo:1.5)とかネガティブにextra personとか突っ込んだりはして体感減ってる気はしてる プロンプトって多すぎるとクオリティ落ちる?
自分がギリギリスペックグラボのせいかな、プロンプト詰め込みすぎると明らかに絵の密度落ちる >>93
そりゃそうだよ
AIもどっちやねんって思ってるよw クォリティも生成速度も落ちる。プロンプトは描いてほしいものだけにするんじゃあ。 ネガティブに超大量に呪文書いてる人よく見るけど
あれって効果あるんかな
ネガティブも程よく少ない方がいいのが出る気がする 少ないほうがいいって最近なにかに書かれてたぞ。
その少ない例は:2.0とかつけてめちゃくちゃ強調してたけど。
monochromeとかは入れておきたいが、bad anatomyとかは効果ないんじゃないかと思えてきてる。 >>97も言ってるが、こればかりは使用するモデルや求める画像によるとしか言えない
プロンプトもネガティブプロンプトも、少なくすれば絶対的に良いということもないし、かといって多ければ良いということもない
強調もモデルによっては1.8あたりから絵が崩壊したりすることもよくある
ネガティブの大量呪文も、求める画像によっては実は有効だったりもするし、そもそもそれぞれのタグが有効かどうかもモデルごとに違う
なので、これだ!という明確な答えはないのよ
ブログとかで紹介されてる方法論もあくまでもその人にとっての回答でしかない
色々試して自分に合った環境、そしてその環境や求める絵にあった記述を試行錯誤するほかないのが現状 SD2はなるべくプロンプト多めにした方がクオリティ上がるしな
Anythingのようにお手軽ハイクオリティじゃないから評価いまいちなんだろう たいして効果ないが積み重なってだいぶ違う
って感じにはなるから整理しようとしたけど諦めた
ここでよく言われるbadとworstだけってのは
典型的AIボディにされるからいっぱい足さざるをえない >>98
最近のよくマージされてるgapeやf111/f222やinstaモデルはdanbooruのbad anatomyタグなんてないだろうから効果が薄まってるのは間違いないね
ただベースにNAI(Anything含)が入っていれば無駄ではないとは思うけど 指定した箇所だけAI加工してくれる何のサービスだったっけ? なぞなぞなのかわからなくて知りたいから質問してんのかどっちなんだよ
その聞き方すげー嫌いだわ 指定した箇所だけAI加工してくれるサービスってな~んだ?←こっちがなぞなぞ なぞなぞだとしたら、普通にそのサービス名を答えると間違いになりそうだ
普通に答えるだけならクイズだし 5chだとなぞなぞ形式よりも「指定した箇所だけAI加工してくれるサービスって存在しないんだな」って書き込んだ方が教えて貰える率が高いとされています 答えは”へー、そんなサービスあるんだ勉強になったわ”でええんやろ >>111
マナー講師だったら、何が悪いかを指摘しつつ正しいお手本を示してくれるもんだよ
で結局誰も教えないの草 >>103
AI加工の範囲が広すぎて何をどうしたいのか分からない
img2imgでマスクをかけると指定した箇所の加工が可能
ある画像の一部のみを変更するのは一般的にinpaintと呼ばれる
これができるサービスを探している? chatGPIってマジでただのグーグルコピペマシーンでしかないから
BMI20とBMI27で太ってるのはどちらって質問にすら答えられないからな
検索エンジンの性質踏まえた質問出すとマジでただの人口無能なのがあからさまになる ChatGPTはGoogleの代わりにするのはまったく向かないけど「ちょっとこれこれこういうことをやるサンプルプログラム書いて」みたいな用途ならめちゃ便利
結局は使い方次第よ NMKD使い始めて自分で撮った写真や書いた絵を読み込ませてるんですが、この素材ってWeb上に後ろでアップロードされてたりしますか? >>119
radditは管理がクソ糞のくそなんでほーんとしか >>113
i2iのinputって結局コラしたいのはわかるんだがどうもt2iで変化した絵を
レイヤーで重ねてマスク部分を残したり透過したりするだけなんよな
もっと境界部分を考慮してるかと思ったらアニメ塗りの色すら合わせてくれない >>119
この人の過去絵みたら2020年くらいからこのレベルで描いてるので絶対違う >>119
記事読んだら、思ったよりもひどい対応だった
本当に「描いた」かどうかは関係ない、AIが描きそうな絵だからBANだ、
とかむしろアンチイラストレーター的な態度だよな
人間は絵を描くな、と言ってるのに等しい いわゆるマスピ顔をAIを使わず描いたイラストとか出てきそう >>68
やってみましたがやはり真っ暗なままでした…
SD1.4系は動くのですが >>131
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features
> If 2.0 or 2.1 is generating black images, enable full precision with --no-half or try using the --xformers optimization. AIと区別付かない紛らわしい絵描く奴増えてきてウザくなってきたから少しだけ気持ち分かるけどな
AI絵に反応しないようにすると疑わしきは罰するしかない
AIかどうかちゃんと判定する技術さっさと開発してくれ AI絵かどうか判定するAIが出たら、それ使って出力画像を選別したり
バリエーション出力してAIっぽくない絵をヤツを選出できる様になるから歓迎だわ AI絵を判別するAIが出来たらそれを使ってAIっぽくない絵を学習したAIが出てくるぞ お前ら諦めて受入れる能力低過ぎ
よく日本に住んでるな あなたの描く絵ってAIに学習すらされないんですか? て日がくるほうが確実なんじゃね?? >>132
--precision full --no-half
でいけました! ありがとうございます! この際統合して雑談ありの【StableDiffusion】AI画像生成技術39【NovelAI】でどう?
イラレ板って確かに板違い
ワッチョイつけるかどうかは自由で
元々技術スレもなかったよね 画像サイズが512よりも大きい方が学習結果がよくなるってのは正しいんですかね?
粗かったりぼやけてるような解像度が低い画像がダメなのは理解できるんですが
ERGANとかでノイズ消去して綺麗にした画像なら小さくてもいいんじゃないですかね
それとも単純な話で、小さい画像だとAIが画像見えないから学習が悪くなるとか何ですか? 出力するサイズが512なら高解像学習の効果少ないかもね >>142
AIは正方形が苦手らしい
理由は構図で迷うから
縦なら縦、横なら横で選択肢が1/2に減るからね AI絵は出せる絵と出せない絵がはっきりし過ぎていてすぐに飽きるんだよなぁ
使い込むほど最初から「このお題ならこういう絵しか出せない」って結果が想像できてしまう
そこが改善される見込みってあるのかな 最近始めた新参者です。ローカル学習方法が今5つ?ほどあってDBがVRAM少なくてもできるから一番話題ってところまでは追えたんですけど、VRAM24GでもDBが最適なんでしょか??スレチだったらごめん まだ一般に降りてきて半年にもならんのになんで改善しないと思うのか…… t2iってむしろ想像した完成図 (ポーズとか色とか) をプロンプトに落とし込むんだから
そもそも想像できるのが基本だと思うのですが…
それとも抽象的なお題を数単語入れただけで
それに沿った (想像つかない) 一枚絵を出してくれるのを期待していますか? 今以上絵が上手くなっても
全部同じにしか見えんけどな もうほぼ上手さに価値はないだろ
全部AIねで終わりだよ ゲーム機の新型が出るたびに「グラフィックすごすぎ!もうこれ以上進化する余地ないだろ!」みたいな事を子供の頃言ってたわ
今考えればまったくそんなことなかったわけでね やっぱワッチョイねぇとお気持ちスレが加速しちまうんだなあw ワ入れたい人がわざとお気持ちを書いたりお気持ちにレスしたりしてワ必要の雰囲気にしたいんだろう ならワッチョイ付けたらいいだろ
あってなにが困るんだ? ワありは書き込みの気楽さが減るのが嫌だし、ずっとワなしでやってきたここが一時的に荒れ気味になったら議論なしで早立て気味にワありにされ、それが落ち着いたら書き込みが減っていたからね
当時は「CG板にはスレをワありにして過疎にさせる荒らしがいる」とも書かれていた
この非対称性はウクライナ防衛戦争と同じだな
ウクライナという国が存在するのがおかしいというプーチンの妄執がある限りウクライナは攻撃され続ける
ワなしのスレがあってはならないと考える人間がいるうちは、自分は安全なところからここを荒らし続ければいい
ワありのスレはもうあるのだからワなしのスレがあっても困らないだろうし、ここは放っておいてそっちで楽しくやってればいいのに 気軽さなんて減らねえよ
過去の発言と照らし合わされて困るようなレスしますって自白してるようなもん もしここがワありだったら、自分は明日以降もなにを書こうとワあり派に粘着され続けるよね
気楽に書けるとはそういうことだよ
意見が違う人から攻撃され続ける心配がない
ワッチョイありがいい人はこちらへどうぞ
【StableDiffusion】AI画像生成技術13【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1673213503/
そしてワなし派のことは放っておいてくれ 初心者質問スレって名前にしたほうが実態に合ってるしお気持ちレスもし辛くなると思う まあ技術スレ言いながら技術の話で一番劣ったスレになっちまったし、
ワありなしどうでもいいっちゃいいけどw stablediffusionで一枚の画像に複数の視点でてくるの防止する方法ってありますか? >>170
画像が上下や3つに分割されてそれぞれに絵が出るやつだったらネガティブプロンプトに
comic
separated view
cross section
などを入れる multi Viewerとか2komaとか3komaとか否定 >>171
>>172
ありがとうございます
全部ぶちこんでみます RadeonユーザがStableDiffusion Web-UIっ言ってきたので調べたら情報がバラバラで混乱。
git cloneでもってきたあとWeb-user.shのTORCH COMMANDを書き換えて、Web-User.batに--no-halfつけりゃいけそうに思えるんだが詳しい人板教えてください。 Stable Diffusion Web-Uiで考えていたが、NMKDだと楽なのか?そっちもしらべてみる。 シンプルな背景にするとバックに拡大部位入れたがるのやめて欲しいよな
DBで顔覚えさせたいんだけど〇〇girl,faceとかにして
正規化の方にgirl,cool face,bodyとかキャラ名face,lolibodyとか付けて置いといたら分けて覚えてくれやすいんだろうか 体型はキャラの年齢可変させる使い方考えたらやめといた方がいい アニメ絵はリアル寄りのライティングとテクスチャが流行るのかな
ligneとかセル系にも発展して欲しいけど >>179
さんくす。うちもgeforceなので人のPCで試して遊んでくる >>180
他人任せにしてればどんどん廃れていく話だと思うけどな
アニメやセル画のコンテンツホルダーの人たちは学習してほしくないってお気持ち表明出てるし
実写はスマホがあれば誰でも簡単に学習素材を無限に増やせるわけだしね
元素材作って学習させて人が使いたくなるものを無料で公開する側の人が流行るも何もない 思い切って3060Tiから4070Tiに載せ替えたんだがt2iの生成遅くなったわ
電源弱いのがいかんのかな?650Wで足りると思ってたが >>184
もう電子レンジやんけ!
24時間稼働させたらどうなるんや‥ 3000以降のGPUはusb-c廃止したのがほんとクソ
コード減らせて4Kでも動作安定してて優良規格だったのに何で廃止なんだ >>180
Anifusion-SDを推しても誰も使わないから仕方ないね
英語圏でもほぼスルーされてるのを見ると、手描き風はもう需要なさそう Anifusionは導入が面倒くさいみたいなのを見てそれきりですね Anifusionすごいけどgirl書いてないのに絶対girlが出てくる 手持ちの3060tiでローカル環境で始めたんだが
生成中はcpuは1コアだけ使われててgpuはほぼ使われてない感じの使用率になってる
gpuメモリはしっかり使われてる
なんか必要なものが入ってない? それともこんなもん? AI やりたいのに4070ってどうなんだ?
3090の方が電気代考慮しなきゃ
良いと思うけど 今のところはVRAMが大正義だから3090が一番いいはず
もうちょっと円高になったら1060tiから3090に行くんだ・・・ >>190
cudaコアしか使わないから使用率はめっちゃ低く出る。
cudaの使用率のグラフ出してみそ >>183
いや、Stable Diffusion Web-UIに入ってるTorch、Torchvisionおよびそこに含まれるCuda系のdllが古くて4000番台に対応してないせいでしょ >>183
CPUがThreadRipperとかの化け物でなければ電源は足りてるだろうから安心して 4000番台はCuDNNを6.8にしろって話があるな。 >>198
違うな、6.8じゃなくて8.6だなw
だいたいは8.5が入ってるんじゃないかしら >>194
cuda使用率100%になってた、なるほどね
ありがとう >>193
そんなの1060 Ti なんてレアなグロブを売ったら
3090なんてすぐ帰るだろう >>199 >>200
サンガツ これっぽいわ 試してみる https://dolls.tokyo/howto-stablediffusion-on-amdradeon/
これに沿ってUbuntuをUSBから起動させようとしてるんだけどbiosの画面から遷移する時に暗転しちゃってubuntuが立ち上がらないんです
原因として考えられるもの教えてくださると助かります,スレチだったらごめんなさい >>205
CPU:AMD Ryzen 9 3900X
GPU:AMD Radeon RX 5700XT
メモリ:32GB
です >>207
どのドライバーをチェックすると良いのでしょうか? >>204
Rufusで作ったUSBメモリから立ち上がらないって話だと思うのだけど、まずBIOSでbootをUSBに指定して再起動するからその後はBIOS画面は出ないと思う。 >>204
確かbootでUSBメモリ選ぶところで2種類あって、どちらかは選んでも起動しなかったはず。
UEFIとか書いてある方選ぶんじゃなかったかしら グラボ ラデオンでも作成できるみたいだな
自作スレで見たけど >>209
そうです!
bootをUSBに指定して再起動した後,いくら待っても画面が真っ暗のままUbuntuに辿り着かないんです... >>210
UEFIと書いてある方を選んでいるんですけど上手くいかないんです
そもそも1種類しか表示がありませんでした >>213
bootの候補に出てきてるのだからちゃんとブートデバイスとして認識されてるっぽいし……
うっかりUSB2.1のポートに刺すとくっそ時間がかかるけど、ちゃんと3のポートに刺しましたか? >>214
差込口が青いやつですよね?
ちゃんと刺せてます 基本的に UEFI であれば
フォルダをそのままコピーして起動できるはず
その CPU だった uefi も対応しているはず
起動の優先順位とかどうなってんの? 質問が来るところを見るとSDでRadeonもそこそこ使われてるようで俺は安心した linuxに動くrocmさえ入れられればどうにかなる
RX580では力及ばなかったのでRTX3060ポチった >>219
Ubuntuの変なキツネみたいなの出てきました!!
マジでありがとうございます!!めちゃくちゃ感謝です!!! >>203
改善したわ 情報くれた兄貴マジでありがとうな
結果貼っとくわ
3060Ti: 4.23it/s
4070Ti: 3.47it/s
4070Ti(cu117): 4.61it/s
4070Ti(cu117 + CuDNN 8.6): 8.59it/s AUTOMATIC1111の stable-diffusion-webuiをRadeonで動かしたくていくつかのWebサイトを見ながら試してたけど、挫折したわ。
webuiの方のバージョンによってはいけたりするのかもしれんけど、自分が試した限りはどうにもならんかった。
似たようなUIでブラウザから生成できるやつは動いたりしたんだけど、HyperNetworkやInpaintが使えず。
それならNMKDでいいよねってなった。
NMKDをRadeon RX6750で動かしてみて「おっそ」って思ったところまで。
AUTOMATIC1111をGPU使わずCPUだけで動かすことはできたわ。
16コアで512✕512を1枚生成するのに3分弱かかるw やり方も書いとくね
・launch.pyをこれの通りにいじる
ttps://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/5939/files
・venvフォルダをフォルダごと消してSDを起動させる。venvが再構築されて、cu117が入る
・SD止めて、venv\Lib\site-packages\torch\libのcudnn系ファイル7つをCuDNN8.6のもので上書き
バックアップ取ってね Radeon7000シリーズとかAIなんたらチップとかメモリ24GBとか活かしてくれりゃいいのにね…… 出来ないのもあるけどiPhoneの自動認識での二次の切り抜きが一番精度高めなのがなんとも
PCのソフトでこのくらいの精度の自動認識の切り抜きないかなぁ >>228
extensionの
katanukiよりええの? radeon6000番台使ってる人はドライバ原因かもしれないグラボぶっ壊れる不具合出てるから気をつけてね
俺もradeonたくさんあるけどAI関係では素直にgeforce使った方がいいと思う
何かある度に時間取られるんだわradeonは >>232
それは金が重要か時間が重要かの話で
ぶっ壊れても保証が効く 4080が16万だったから購入したわ
1080からかなりの速度アップや novel aiのサービスを一ヶ月ぐらい使ってみたけど、理想通りのものを作ってくれないとイライラするからやめる。版権キャラやオリキャラの再現、構図に時間かけてガチャするのがバカらしくなった
褐色肌のキャラを作ろうとプロントで強調させたり、ネガに色々入れても思い通りにやってくれなくて白い肌にするしそれに強調させようとすると他の要素が薄くなるから、強調タグのバランス調整が難しい
なんでもいいから適当にキャラ作ったりする程度ならいいけど、指定してるものを再現してくれないなら課金したくねぇな >>235
え、3090じゃなく4080買ったの? Web UIの方だとimg2imgで肌色塗り替えた画像をベースにして生成しなおせば肌の色は結構簡単に指定出来るけどな
構図が生成できたらあとはペイントで衣装や肌の色指定していったほうが早いと思う 【岸田悲報】🤖AI絵師、なんJ民有志の過酷な研究により一線を超え始める。描き込み量がエグい…🥶 [701470346]
https://greta.5ch.net/test/read.cgi/poverty/1673747304/
指の弱点克服したのかな?
そろそろ本気でやろうかな StableDiffusionGuiでONNX入れればradeでも動くみたいだけど挫折した
素直にCPUパワーで頑張る Windows上で動作するONNXのWebUI環境はいくつかのリリースがあるものの、CKPTやSafetensors読めなくて変換の必要あるし、VAEも読み込む方法なさそうに見える・・・。
HypernetworkやLoraも使えない。
Inpaintすら実装されているものがなさげ。
AUTOMATIC1111がそのまま動けばいいんだけど、全くそうはいかない。
Linux上でならいけるっぽい感じだけど。
結局できることが少ないので、構築が簡単なNMKDやSHARKで遊ぶ程度なのかなって感じ。 ローカル環境を導入しようとしたのですが
作成されたstable-diffusion-webuiフォルダのなかにmodelsフォルダがない場合はどうしたらいいんでしょうか? >>244
別途モデルファイルを落としてきてフォルダ作って配置する Put Stable Diffusion checkpoints here.txtっていうファイルが入ったフォルダがデフォルトで作られるので、modelフォルダがないって時点で何か間違ってる。 一度動かさないとmodelsフォルダ作られなかった気が >>206
Radeonはこれだと簡単だよ↓
出来なかったら試してみて
https://nmkd.itch.io/t2i-gui
amdで動かすには変換が必要
Stable Diffusion GUI起動後
developer toolsを選択(右上から4番目レンチのアイコン)
conbert modelsを選択
model output Formatでdiffusers onnx formatを選択
conbertをクリックして待つ
open settingsを選択(右上から1番目の歯車アイコン)
Stable Diffusion modelsのsd-v1-5-fp16_onnxが選択されてたらok
出ない場合はrefresh listをクリック
それでも出ない場合は
folderを選択
+を押してsd-v1-5-fp16_onnxを選択
終わったらsettingsを×で閉じる
左上に文字入れて右下あたりのGeneleteで作成 >>206
追記
NMKD Stable Diffusion GUIStable Diffusion GUI 1.8.1
↓のサイトに行く
https://nmkd.itch.io/t2i-gui
downloads nowをクリック
No thanks, just take me to the downloadsにすると無料
3GBの方をダウンロード
zipを解凍してexeを起動
勝手に何もかも必要なものがInstallボタンでpcに入ります。
いらなくなったらフォルダ事削除で全部きえます zipにも入ってる。
空のフォルダを作成しないアーカイバに配慮して空っぽのテキストファイルが入れてある。 Radeonで一番簡単なのはSHARK。
ダブルクリックするだけでブラウザの起動まできてt2iできる。
モデルはsd1.5やanythingv3が入ってる。
モデルの追加不可。
NMKDならモデルの追加はできる。
CKPTやSafetensorsはそのままじゃ使えないが、変換機能もソフト内にある。
いずれにせよVAEの指定不可、Hypernetwork不可、Inpaint不可でできることが限られる。
AUTOMATIC1111のstable diffusion WebUIを動かせないと同等とは言い難い。
Linuxでは動作してるっぽいけどRadeonしか持ってないとか言ってくるのはたいていWindowsユーザなんだよ・・・! ゲームやる分にはRadeonで困らないんだけどAIだと難易度高いな 1111の画面の左上にある「Stable Diffusion checkpoint」でモデル名のあとにモデルのハッシュ値が表示されなくなったのは表示するように戻せないんでしょうか 進歩が日進月歩でひと月前の環境が古いと言われてしまう状況だとな
緑は技術者をコミュに紛れ込ませてるだろうけど赤はそういうことやってない感じだし(偏見に基づく妄想)
ROCmにやる気がないのはほんとそう だな。
AI画像に限らずAI系のプログラムはだいたいnvidia必要になる >>241
克服はしてない
実写とマージしてるからよくなっただけで
イラスト寄りにすると相変わらず >>257
革ジャンは当初から予算組んでスタッフを参加させて積極的にハードの開発行ってるわけで、紛れ込ませるもなにもないだろう
AMDはゲーム機取れた頃から、オープンソースにするから自分たちでやってってスタンスで
バグがあったら直すよ?売り上げ貢献や採算取れるなら機能追加もするからって感じだ 電源足りる足りないで悩んでるやつに朗報や
実はPCの電源は連結できる。だいぶ不格好になるけど、750wと550wを連結して550wの方はGPUにだけ電力供給するみたいなことができる。
詳しくは電源連結とかで調べてくれ、たぶんマイニング関連の記事が出てくるから >>259
なるほどそういうカラクリか
指だけでも自力で描こうかな >>GPU バックエンドに接続できません
>>Colab での使用量上限に達したため、現在 GPU に接続できません。 詳細
>>お客様は Colab Pro にご登録いただいているため、高速 GPU を利用でき、登録前より使用量上限が引き上げられていますが
>>、GPU の優先利用と使用量上限のさらなる引き上げに関心をお持ちの場合は、Colab Pro+ または Pay As You Go をご確認ください。
今日はまだ4時間未満しか接続して無いのに何のために有料になったんだか・・・
これってしばらく経ったらGPU使えるようになるんですか? >>265
マイナー回線が早くて喜んで拡散したら人が集まって遅くなるのに似てる >>265
不確かなんだけどcolabって AI 使用ダメになったんじゃないの
だからみんなローカルでやってるってのもあると思うけど お騒がせしました、一寝入りして起きたらGPU使えるようになってました、一安心
いまだ環境構築半ばなのに使えなくなって焦りました
Colab Proに入って二日でプレミアムGPUの100コンピューティングユニットを使い切った時も焦りましたけどね 長辺が960くらいあるとレンダリング画像を吐き出してくれないなあ、ハイスぺマシン欲しい anything 4.5のフル版来てるけど
トロイ検出するな >>256
いまgut pullしたらhashes.pyというファイルに更新があり期待したが変わらず
どこかに表示設定があるのだろうか? 見つけられない ボタン連打で割とつながる無料のやつあるけど教えたくない >>272
焦って最新版追うんじゃなくて、更新内容見てきなよ… 助けてください
昨日から立ち上げっぱなしだったSD web uiを今日朝立ち上げ直したら
同じseedの画像が昨日と違う画像を吐くようになったのですが考えられる原因はなんでしょうか?
調べたところSDにバージョンアップした感じでもなさそうです。
ちなみにpng infoからtex2imgに転送して出力しています。 来月出るSD開発元の画像生成AIは必須GPUメモリが80GBらしい
誰が使えるねんそんなもん
クオリティはえげつないという噂やけど VRAM 80GBはシェアードメモリが広まったらワン・チャンあるかも知れん 生成じゃなくて学習するなら80Gってことじゃね、現時点でも8kとか出力するならそのくらいメモリ必要とちゃうか なんかグーグルっていつも危険だから非公開にしてるイメージある >>275
設定のeta (noise multiplier) for ancestral samplers
が違う 逆に実写系に一番強いモデルって何がある?
インスタその他有名な実写系モデルはどれも女体の改善だけ力入れてて
背景とか服とかのトータルではいまだにSDが一番マシなんだけど 時間と金かけて学習させた使い物になるものを叩かれるのを覚悟で無償で公開する人がいないだけ 1080だとxformersで15%くらい処理速度下がるんだな 質問です
i2iでたまたますごく好みの絵柄というか顔が生成されたのでこの絵柄で安定してt2iや他のi2iでも生成できるようにしたいのですがどうしたらいいのでしょうか?
まだ学習のことはあまり調べていないのですが一枚しかなくても学習は可能なんでしょうか? Automatic1111で以前と同じ設定、同じプロンプト、同じseedなのにDDIMだと全然違うもんがでてくるようになって再現できなくなったがなにか変な変更あった? >>294
設定の
eta (noise multiplier) for DDIM i2iで自分のヘッタクソな下絵から生成してるけど
上手く行かない 目標の絵をDeepDanbooruにかけて、そのプロンプトでStrength上げてi2i回せ 時間出来たからfix_positionでモデルチェックしてるけど思ったより破損多かったわ
しかし0,0 はともかく 7とか19とか壊れてても分からんなこれ WD1.4e2でたけど…うーん…
このまま続けてもたぶんNAIには遠く及ばない気がする >>295
ありがとう、そこはすでに試してるがダメなんだ
Gitみるにどうやら新しいhighres fixが原因臭い アプデしてからRTX4090でも黒画像出るようになったしイラつくからバージョン下げよ… >>293
できるよ~
使える技術はVRAM次第だけど 275です
>>286 >>289 ありがとうございます
>>295方も言及されてますが
設定ってリセット方法とか初期値の公開とかってどこかでされてますかね? >>303
webuiの基本フォルダにある config.json が settingの中身
削除すればデフォに戻った気はするが要バックアップで
個別にリセットする方法は知らない ワイもアップデートしてから真っ黒画像出る頻度上がったわ Automatic1111の"Prompts from file or textbox"で複数プロンプトのtext2imgをバッチ処理できますが
複数画像をimg2imgでバッチ処理する方法ってないですか? >>306 はimg2imgタブの中の"Batch img2img"で解決しました 100%なる直前までいい感じに出そうなのに真っ黒になるな
ステップかアップスケール値ちょっとずらすと出るけど素体が変わっちまう >>302
ありがとうございます
colabなのですが出来ますか?
ローカルは3060tiなので8GBです >>308
—no-half-vae付けてないからVAE適用時に死ぬとかじゃないの? i2iは完全素人の滅茶苦茶な落書きからはいい感じに絵をでっち上げてくれるけど
半端に下手な絵からはその下手な部分を再現すべき特徴と思い込んで引きずられてしまう
完全素人のほうが得してしまうわりとクソ機能よ nsfwってプロンプトがいまだに覚えられない、ntfsとかnfwsとか打って画像出てから間違いに気づく そういうのは略される前の意味が分かると間違えなくなる ノー・セックス・フォー・ワークって教わったわ
これネガティブに入れんとアヘ顔しかでてこーへんよって >>310
そっちはダメだったけど--no-half --precision fullで出たわありがとう
3090なんだけどインストールし直したばかりだし最新版でなんか挙動変わったのかな Automatic最新はdreamboothあたりも変な動きしてないか?
同じ素材で作成しても仕上がりが全然違う、プロンプトに対しての変化が出にくいしすぐ過学習になってぶっ壊れる https://twitter.com/UnstableDiffusi
今日Tweetしてるから夜逃げではなさそうだけど…
金が絡むサイトを工事中にする意識はやべえな
https://twitter.com/5chan_nel (5ch newer account) DB使って版権キャラの絵を作ってるんだけど、画像サイズが1024×1024を超えるあたりから
グチャグチャの絵になっちゃうの何とかできんかな?
素のAnythingとかは全然問題ないんだけど、DBしちゃうと駄目だわ >>326
じゃあ画像サイズ下げればいいじゃん
>>327
じゃあセックスしてみればいいじゃん NMKD stable diffusion guiはネット繋いでないとpcに有っても使えない? >>330
モデルanythingとbasil mix使おうとするとネット繋いでないとモデルロードエラーってなる繋ぐと使える何故?? この法的洗礼が終わってやっとスタートラインっていうのが現状っていうか安心して使える技術ってところだもんな
勝てそうにない自称アスペルガー症候群のイーロン・マスクやマイクロソフトが後ろについてるOpneAIには手を出さんか
米画家ら、画像生成AI「Stable Diffusion」と「Midjourney」を提訴
https://pc.watch.impress.co.jp/docs/news/1470744.html >>332
仮にそいつらの製造責任が問われても使用するのは自由なんだ
マジコンと同様 >>332
裏に企業がついててフリーのAIを潰そうとしてるのかもしれん
海外ではありそうな展開だ 質問させてください。大きい画像作りたくてpaperspace課金検討しててフリー
で使用してみたのですが768*1024もHiresなしで生成できませんでした。聞く限りそこまで
悪い性能でないようなんですけど自分のやり方に問題があるのかどちらかわからないので
paperspace無料でどのくらいのサイズの画像がつくれるか限界を教えてください。 >>308
同じかわかんないけど
ライブプレビューは問題ないのに100%になったら黒画像になってしまう現象
pytorch2.0で最新のcudnnをtorchのlibに上書きしたら起きたんだけど
autocastの最後でcudn/fp32を返すようにして
processingのx_samples_ddim3行にインデント付けてautocast内に入れたら直ったわ
16xx系だけど
devicesのbenchmark消してprecision fullとno half vae無しでも黒くならなくなった >>336
cudn/fp32じゃなくてcuda/float32だった みんなSeed値ってどうやって取得してるの?
俺はタブがクラッシュした時にタブの再読み込みするとSeedが、-1→1721118443
とかなって絵が固定化されるのに気付いたんだけど
他に真っ当なやり方がありそうでモニョってる >>304
275です
設定リセットできて以前の画像復元できるようになりました
ありがとうございました! >>229
katanukiは腕の隙間とか残るけどiPhoneは結構綺麗に切り抜く
ただ頭から脚の立ち絵に準じた構図以外はスルーされがち
>>336
多分似た感じちょっとお勉強してやってみる
なんかこの最後に真っ黒が悪さしてるのかin paintも最後に黒塗りに
なって機能しないのがちょいちょい起きるわ てかPython3.10.9入れちゃってるけど変えたら直る可能性もありそう 実写をkatanukiしたら頭と肩で照明強さ違ってて中途半端になってしまった
automatic1111のdepth map作るアドオンでグレーのmap作ってクリスタで手作業で二値化したわね
でも昨日落としたスマホのアプリの方が綺麗になりそう… >>323
公式discordでサイトこっちに移動したって案内あった
こっちでウェブアプリをリリース予定だそう
https://www.unstability.ai/
クラファンは2月末まで受け付けてて
サイトからメールアドレス送ったらそれについての案内も送られてくるらしい
他学習のためのボランティア募集してたりするが
詳しくは公式discordでアナウンスしてるよ >>340
出てきた画像のSeedの取得なら>341の♻ボタンもそうだし、出てきた画像の下の方に生成情報があるからその中の「Seed:」を見るとか
あとタブをリロードしてプロンプト欄の右にある↙︎ボタンを押すと直前のパラメータが読み込まれる
もちろんPNG Infoタブに生成した画像をドラッグ&ドロップしてもよい >>345
katanukiはイラスト特化だしな
背景除去で割とメジャーなrembgっていう切り抜きツールがgithubにあるから試してみたら 間違えて勢いのないほうにかきこんじゃったのでこちらで質問します
マルチに当たったらすいません
ひさびさに更新したらリサイズの項目に見慣れないのがあったから使ってみようと思ったけとエラー出て使えなかった
何か追加でいれないと使えない?
あと、潜在的なアップスケールってなってるけどi2i元の画像から縦横比維持したまま埋めも切り抜きもしないで出力してくれるの?
https://i.imgur.com/ljxkSuL.png
https://i.imgur.com/iBYXPC5.png つか1111は低スペック切り捨てていくみたいだから、最低でも3060 12GBにしなきゃもう無理よ
hires.fix使わなきゃカスみたいなイラストしか出ないし 呪文に+++ってつける意味ってなーに?
教えておにいちゃん >>354
陰謀論とか嘘科学に騙されやすい底辺がやるおまじない そもそも最近のマージモデルはプロンプトいかに短くするかが大事だから
その辺の謎呪文とか価値がないよ
いまだにNAIやらAnyV3使ってるなら知らんけど >>358
たった1ヶ月で状況変わりすぎやろ‥
2ヶ月前はNAIすげぇやったやんけ https://i.imgur.com/Q7bjZGN.jpg
これとか
nsfw,1girl,トウショウスイープ,sitting,spread her legs,show pussy,sweat,blush,on the chair,classroom
プロンプトこんだけだからな
マージモデルの質と外部ツールどんだけ揃えられるかが大事でプロンプトとか研究する価値がなくなったわ 名前普通に間違えたわ
ファイル名も間違えてそのままにしてたわ ミッドジャーニーに課金しようと思うんですが、プライベートモードはプロ60ドルしかなくなったのでしょうか?
ネットでググると+20ドルで使える書いてありますが見当たりません 〉〉341 〉〉347
ありがとうございます、画像下の文字列とか全く見てなかったけど情報の宝庫だったんだー >>313
not safe for working
ノットセーフフォーワークって暗唱すれば一発だぜ AnithingV4とか試してみたけど
確かにバズりたい系イラスト部門では凄い進歩だけどエッチイラスト部門ではいまだにNAIが最強な気がする ヤフオクに Tesla M40 24GB _らしき_ものがでてる
いまさらのMaxwellだけど 24GBに惹かれている
実は使いでがあったりしないかな? グラボ新調しようと思ってるんだけど、ai的には4070tiや4080より3090の方が良いのかな? 4090使うと画像が綺麗になるって聞いたけどグラボで絵柄って変わるんか? よくわからなかったり自分で調べるつもりがないなら「RTX 3060の12GB版」を買っとけば間違いない
値段も5万前後で現実的
8GB版と間違えないようにね
GPUメモリが多ければ大きいサイズの画像が作れる
だから4090を使えば綺麗になると言えばなるけど
結局は設定と呪文とモデル次第って部分もあるよ >>375
AI以外では40x0と比べると3090は完全に型落ちだし
24GB絶対必要っていう状況は今の所StableTunerぐらいしか無くない?
来月のimagenは24GBでも足らんって言うし様子見ぐらいならノートの3060、ゲームやるなら40x0勧めるわ
型落ちの上24GBが無意味になる覚悟があるなら3090も悪くないけど時期悪 >>376
CUDAコア数が違うんだから変わるとは思うが、人間が見分けつくレベルかは分からんね
そもそも綺麗とは何ぞや AIやってて3090と4070tiが同じ価格で4070ti買うのはちょっと頭おかしいと思う >>379
pixivの人気な絵は4090で、マシンパワーで明らかに書き込み量が違うとか言ってる人が別のスレにいてさ
ほんとかよって感じだが 明確な理由もなくimagen対応の保証も無いのにVRAM以外に優れた点が無い3090買う方が頭おかしいと思う
一応忠告はしました そのVRAMが重要なんだからしゃーない
現状は3060、3090、4090の三択
依然、変わりなく >>381
VRAM多ければhighresで出せる最大サイズもその分デカくなる
デカければデカいだけ細部まで詳細に書き込まれる
書き込み量が違うってのはそういう事じゃね >>385
せやなーとんでもない性能要求するimagenは全てを過去にすると言ってるくらいやし性能とクオリティが比例するってのは暴論ではないやろな Imagenもいいけど蒸留SDをそろそろ出して欲しい 確か3060を2枚つなげて24Gに出来んでしょ
高解像度やりたい人は3090か4090が選択肢になるわな >>388
現状、解像度上げても元が低いから破綻する
imagenが24Gで動き始めてからじゃないとね 生成時にそんなに解像度上げても意味ない感じだけどな。
学習した画像サイズの倍ぐらいまでしか意味のある書き込みにならない感じ。
そりゃそうだわな。
学習ではVRAM大きいの役立ってると思うし、生成も単に速い方がいいので4090を使っているが、高画質化するなんてでたらめだと思う。 huggingface-cli.exe loginでToken:が出た後アクセストークンどころか何も入力出来ないんだけどどうしたらいいの・・・ >>378
同じ位の値段ならVRAM多い方が良いかと思ったけど、googleのaiとかも間近だし確かに様子見した方が良いかな
ありがとう はじめはチ○コがなかなか出てこなかったが、今はもう頼んでもいないのに色々生えてくるようになったなー
プロンプト使いまわしてるからなんだけど、1boyとかpenisとかhetero削ってるのになんか消し残しがあるんだろうけど
英語のワードってぱっと見で入ってこないから、漢字仮名まじりって読みやすいんやなあって思う 黒髪三つ編みメガネクラス委員巨乳指定なのに高い頻度で白髪になる
ネガティブプロンプトに白髪入れてもなる
Seedガチャの結果、獣耳まで生えやがった、どう考えても羽川翼です
既存のキャラに引っ張られてしまうということが分かった >>400
羽川翼をネガに入れてみたらいいんじゃね? >>402
プロンプト弄ったりSeed変えたりしてるうちにこんな顔になりがちになってきた
タレ目の呪文が全く効かずツリ目になる
たぶんOrangeMix2のモデルの癖なんだろう >>401
>>ネガに羽川翼
入れたわ、入れて呪文強化してもまだ怪異化する
おそらくパターン学習用のSRAMに潜り込んだウィルスがプログラムを修復してるのよ 有料サービスのGoogl Colab Proでも1日6時間ブン回したらGPUの使用量上限に達しGPUに接続できなくなる
解除されてGPUが再び使えるようになるのは日本時間で朝の6時半っと、昨日と今朝で確認
休みの日だからって朝からブン回したら昼から翌日まで使えなくなってグーグルさん嫌いになってたよ 現状1660sで640×960ぐらいが破綻なしで一発だしできる限界なんだけど、
上でオススメしてる3060、3090、4090に変えれば破綻なしの一発だしで出せる
解像度が大きくできるってことでOK? VRAMが関係あるのは基本、生成速度だけだよ
よほど古いのなら知らんが
俺は1030から3060に変えたら1枚の生成速度が15秒から3秒になった >>409
生成速度にVRAM量が影響するのはでかいの出す時だけやで
VRAMに余裕がある小さい絵の場合はコアの性能や コスパ無視
4090>3090ti>3090
コスパ重視
3090 3060
こんな感じじゃないの?
そりゃ2倍の値段出せるなら
4090買いなよとしか 上位機種は
CUDA数やクロックもともと速い
メモリ多いから同時枚数増える
省メモリ設定もいらんから速くなる
といった理由で速い分枚数多く出せて破綻しない絵をチョイス出来る 2080tiはあかんか…?
今のPC、rtx2080tiの12GBのを使ってるのやが… >>413
2070s 8GBでやっとるがそこまで不便に感じたことないで
もっとはやくしてえとは思うけど 3060 と同等かちょいいいくらいはいけるんちゃうの?知らんけど >>407
hires.fix込みで言えばその解釈で合ってる >>409
平気で嘘吐くな
vramは速度だけじゃない >>413
>>1のテンプレの性能比較だと3060の1.5倍くらい速いで >>416
ハイレゾってよく分からないけど、1024以上のサイズもそれを使えばできるってこと? 生成失敗した時とかにそのままvramだけずっと使われてる状態みたいになっちゃうの一回落とすしかない? >>419
highre.fixはt2iしたのをi2iに渡してアップスケールするのをまとめてやってくれる的な機能
アップスケーラーにlatentを使うとi2iよりも繊細な絵ができるけど、絵が崩壊しない調整がいる。 >>419
1500くらいでも普通に出力できるよ
オンでも破綻するときはするけど >>419
i2iのアップスケール可能なサイズがVRAM量次第なのと同じで、highres.fixのアップスケール可能なサイズもVRAM量次第で変わる RTX3060Tiのパソコン買うつもりまんまんだったところでAIイラストまとめサイト見てRTX3060に着地したのでこのスレ参加してもいいですか? 2080ti結構いい感じに使えそうなんだな!
ありがとう、導入頑張る >>407
別にハイレゾせんでも12GBあるモデルなら1024x768とか1280x640くらいなら一発で出せるぞ。プロンプトやモデルによっては奇形や破綻することはあるけどさほど気にはならない
ハイレゾすれば1980x1080どころか2400x1080も出せる。なお時間 >>419
先にちっちゃい画像を生成してそれを元におっきい画像を生成する機能
先の画像を生成する分ちょっとだけ時間かかるけど構図とかが破綻しにくいし設定で元画像も出力できるのでそれを見てwktkしたり中止したりもできる 仕事でも使うからMac縛りでいきたいんだが、あんまり同志はおらんのだなぁ…
M1 Mac miniが50サイクル1分ぐらいかかるから予算30万で環境更新したいのだが、オススメはやっぱりLinuxを一台追加だろうか? >>428
アップルシリコンは革新的で将来性も高いと思うけど、現時点ならLinux専用機の追加をおすすめしたい
SDに関しては3060ですらMac Studioの最上位機種と同程度の性能がある
10-15万で70万のMac Studio並のAI能力を獲得できると思えば安いもんでしょう
仕事用のMac環境を一切汚さずに済む利点もあるし、MacのブラウザやPhotoshopでSDを直接操作できるのは便利だよ 仕事はクリエイティブじゃなければ手頃なノートでいいしハイスペック1台置いとけばリモートであれこれできていい >>429
ありがとう、その価格差は魅力だなぁ
その方向で検討していくよ >>433
あとM1とかでSD使うとスワップ頻発してSSDを酷使しそうっていう心配もある
とはいえAI界隈は予測がつかないので、状況が変わってゴミと化したらすまん みんなありがとう
生産速度だけじゃなく高解像度の一発だしできるならグラボ買い替えしてみようかな
とりまRTX 3060 12Gあたりを検討 たまに言われるスペック差での差異なのかもしれないけど
AOM2のあのアンドロイドとロボットのやつ違う結果になるのよな >>428
俺も仕事の関係でMac使いだけどAI分野の将来性を怪しんでるからWin機に乗り換えようかなと思ってる
どの道Macは使わざるを得ないけどiOSのアプリコンパイル以外に使わないし
ほぼ無駄になるのが癪だがサブ機にMacbook AirかMac mini買っておけばいいからね 参考?まで
NvidiaGPUのAI学習関連ベンチ ちなみになんだけどグラボをRTX3060の12GBになるとしてCPUがボトルネックになることってある?
今積んでるCPUがi5 8400でだいぶ化石CPUなんだけど… >>440
うちはi5 9400+RTX3060だけど画像生成中はGPUネックで
CPUは20~30%くらいで殆ど遊んでるね ボトルネックはGPU > SSD(MEM) > CPU の順でしょ >>406
本当?
いつも無料で回してるけどサービス利用開始時点から何時間って決まってる気がしたんだわ
SDがブームだったころには2時間半、
最近は3時間半くらい停止まで使えるけど
どっちもサービス利用開始時点から23時間後くらいに使えるようになってたわ 2060の12Gモデルを使ってるけど、全然不満ないよ。フルHD一発出しできるし。まぁ、遅いっちゃ遅いのかもしれんけど、体感で3060とあまり変わらない。 >>419
絵の内容とかモデルにもよるのだけど、
first pass (1280x640):https://i.imgur.com/lUaHciw.png
↓1.5倍
highres.fix完成品 (1920x960):https://i.imgur.com/r1uU0st.png
くらいは余裕 20xx以前は高解像度だと絵が変わるらしいから、実は微妙になってる可能性はある
https://i.imgur.com/CiZyk0G.jpg Dreamboothした自モデルとAny4.5を階層マージしたらキャラ維持したままクオリティ爆上げできた >>446
こりゃすごいな、ハイレゾ使わずに
普通に1920✕960だとやっぱ破綻するの? reference sheetだと、first passで描かれるブツのサイズが指定した画像サイズと関係なく同じくらいになるんかな?
そのせいで破綻しないのか。 キャラがでーんと描かれる絵だと破綻するかもなのか
奥が深いな… さっきなにげにgit pullしたら起動しなくなった UIの起動で失敗してるくさい 何かおかしい場合、取りあえずsd_dreambooth_extensionを消して試してみる癖が付いたわ ありがと extensionフォルダリネームしたら起動しました sd-webui-additional-networksを入れていたら更新せよ! AV3とAOM2で階層マージしたいんやがcolabだとハイメモリでないとできんのかな? >>395
すいませんこの件しばらく粘ったんだけど解決しません
トークンコピーしてctrl+v押してenterしても進めないしどうすればいいんでしょうか?
https://i.imgur.com/AoeUK5C.jpg >>461
同じようなことになったけどどう解決したかよくわかっていないです。
他のテキストエディタに一度貼り付けて空白や改行が入らないようにコピーし直したこと、機能しているかどうかわからないCtrl+Vではなくメニューから貼り付けを行ったことはうっすら覚えています。 >>462
すいませんメニューから貼付けをするっていうのはどうやるんでしょうか?
Powershellもcmdも右クリックで何も出てこないので教えて欲しいです 理解がいまいちなのですがこれで行けたのかな?
右クリック押しただけで貼付け出来たようですありがとうございます
https://i.imgur.com/u6bxMwA.jpg 検索してもよくわからなかったので教えてください
VAEとモデルの関係性がよくわかりません
入れ替えてみてもどんな違いが出てくるんでしょうか? 入れ替えてってのはAのckptにBのVAEっていう組み合わせの話で
VAE.ckptを入れ替えて使うってわけじゃないです >>444
自分の体感なんですが、Colab(Pro)はランタイムに接続してるうちに利用時間が減る仕様で
朝一時間、ランタイムの接続を削除して終了して、夜は5時間とか残りの利用時間使えてます >>460
しげの先生に絵柄に合わせたAIモデルを作るアシスタントが必要 初めてのStablediffusion用PC購入でのGPUで悩んでたけど
このスレの書き込みが参考になったので改めて聞いてみたい
高解像画像作りたいなら12GBの3060でも出来るが
4070Tiなら出来るスピードが速くなる、で合ってる?
差額の10万の差に見合うスピードの差があるか、どちらがオススメか
お聞きしたい。よろしくおねがいします 最初は3060がオススメ
不足を感じたら4070Tiなんて半端なこと言わず3090か4090w目指そう 自分が飽きる可能性あるから高額出費する前に3060で試すのもいいかと なんだかんだバランスの良い RTX 3090がおすすめ
RX 4090値段が高いからね RTX2060[12GB]ならば、処分特価の35800円で買える
3060と大きな性能差は無いので、初期投資をなるべく削りたい場合は良いかも
https://joshinweb.jp/outlet/65929/4710562242973.html 最近やたらと2060推すやついるけどその価格差なら絶対に3060のほうがいい
性能差全然無いなんて嘘
あと2000番台と3000番台じゃ生成される画像も変わる 4090はwiki見てドライバやCUDNNの類を更新しないと半分くらいの性能しか出ないことがある
4070Tiもたぶん同じだろうからそこは注意が必要だね >>477
ハードで出てくる画像変わるんだろうなーと言うのは実際そうなんだろうけど3000代と4000代は一緒なの? >>477
性能差は2割程度だけど、画像が劣化するのならば3060の方が無難だな
5万あれば買えるし 劣化というか
人様のコレイイ!って作品をプロンプトから再現したり
ベースにして弄りたいとか考えると現在多数派の30系に合わせるのが無難
今後を考えて40系はアリとしても今から20系は…ってのはあるかな
なお3060は最近になって8GB版という地雷が追加されたので
3060買うならそこは要注意だね 何がいいかはゲームするのとかにもよる
本当にAI用にしか使わないのなら新品を買うのはバカ
ファンは回るけど映像が出ない(乱れるのは高確率でメモリがイカれてるのでダメ・できれば認識保証付き)ジャンクを二束三文で買ったほうが絶対に良い。 そのジャンク品を探し当てるのが普通の人はできないと思う 普通の人がAIのためにグラボを新調しようと考えるか? 試しにヤフオク見てみたけどジャンクも結構高いしロクなの無いやんけ 普通な人々がAIのために次々とグラボを買い替えてるから定期的に話題に出るんだよ
普通じゃない連中は自分で調べて解決するからな 普通じゃないのでVRAM24GBでも足りなく感じます
4090Tiも24GBらしいので5090に期待 ただのエロ絵量産機に10何万とか突っ込もうとかどうかしてるって、いったん落ち着こうぜ
いったい何の為にAI画像生成するのか?を問い質そう
ところで昔は3DはGPUよりCPUって言われてたけど、現在は状況変わってるんですか?
ブレンダーの作業画面がサクサクに動くとかレンダリングが早くなるとか Twitterだけ見てるとAIイラストは簡単にポンポン良作が作れるのかと思ってたけど、上がってるのは奇跡の一枚なんだね
3日ぐらい試行錯誤したけどろくなものが作れない そこまで行ったらGeForceは卒業
H100への代替わりで中古A100が出回るかも知れない もう少し待てば軽い環境でも作れるものが出てくるだろうから、いまそんな大金を投資するのが馬鹿らしいと思う 趣味は人それぞれ
ソシャゲやアイドルに金突っ込むのと同じ
他人がとやかく言うものじゃないよ
それに、なんだかんだで大人の趣味としてはわりと安く済む
ある程度の年齢なら10万は大金というほどでもない それはなんでもそうだね
携帯電話も最初は50万円以上してトランシーバーの2倍ぐらいでかかったw
AIもいまがその黎明期
直ぐにスマホで日本語でできるようになる バイクなんてエントリークラスの250ccで50万とかかかるしな…
むしろこの遊びに5万10万を渋る人は一体何に金を使ってるのか気になる >>461
もともとctrlvは使えないね
ウインドウ内を右クリックしても貼付けされない?
タイトルバー右クリックから編集貼り付け 稼働時間にもよるけど、電気代が毎月1万円の計算も入れておかないと
本体代だけじゃないよ そこまで稼働させてたら電気代分より遥かに楽しんでるでしょ >>489
ハイエンドのCPUの25倍速いよ4090のレンダリングは すでに持ってるゲーム機を併用するならいいけど、1から設備投資費用+電気代+維持費や周辺機材もろもろを考えると割が合うかは謎
Holaraみたいに向こうが巨大なCPUやサーバーを用意してくれて、多少の課金でスマホで寝転び苦労せず綺麗なイラストを作れる選択肢もありよ グラボのグレード上げるとCPUとかより冷却周りが大変なんだが
すぐグラボメモリがあちあちになる。ファン増設もしたけど
これからあったかくなるしちょい心配だわ。みんなどうしてんの 画像生成AIはメモリさえあれば良いしモバイルバージョンのGPUでやるってのも手だな
サイレントモードとかで低消費電力で発熱も少なくぶん回せるから扱いやすい >>497
3090とか?どれくらい使ったらそのくらいなるの? >>504
それは貧乏人の言い訳で、時間も金もかかる事になるべ
お金は別で稼げばいいが時間はどうにもならんしな 自分が金ないからって他人の金の使い方にも口を挟むようなやつが増えたな
そもそもCGなんだから最低限それなりに初期投資がかかる前提でいて欲しいわ
それを『たかがお絵描き』って感じるなら最初から手を出さないほうがいい 500Wh×24時間×30日×30円
これでだいたい1万円になるわねPCだけで >>503
夏場は仕事場のそばの小部屋にPC専用のクーラーを設置して扇風機をガンガン回す
そうしないと上の記事みたいに2日で逝かれる
前に冷却材を周囲に並べたら結露を起こして壊してしまったのよね
電気代かかるけど仕方ない
>>505
夏場は電気代はさらに倍以上になるよ >>511
どれくらい使ってるのか教えて欲しいんだが >>512
仕事で使うから寝る時と外出時以外はうごいてる >>502
サンキュー、でもそのグラフ見てもピンとこないw
とにかく凄そうだと、3DもやってたからPC新調してもいいかも4090は高くて買えないけど >>515
下の方に5950Xの数値が出てるので4090の数字で割れば差が出ますよ
実際の時間はまた少し違いますが大体そんな感じですね 普段はradeon使ってて追加で3060刺して3060でAI画像生成とか処理分ける事出来るの? AI絵でも技量とかレタッチできるかでかなり差が出ると思うよ
誰でもできる、ってのは 結局どこかで差がつくものだ AIのレタッチに必要な技量なんてw
1から描くのに比べたら無に等しい Intel Arc A770 21P01J00BA [PCIExp 16GB] 5.5万円 >>522
さすがにそれはない
絵がわからない人間にはそもそも正しいレタッチは出来ない
元がAI絵だろうとなんだろうと知識と技術は必要 むしろ顔だけうまいAI絵に合うように正しい手を描くのは結構難しいんだが…
ここはやってる人いないのか? もうしばらくはAI生成で遊ぶのと、食っていけるレベルの売り物になる1枚絵を描くのは別の話どころか別の世界の話だからなぁ
その差がわからん人はデッサンもろくにできないレベルというか見分けもつかん目しか持っとらんのやろな 絵師とも名乗れるのは手書きで修正できるスキルのある人だけで、他は作画監督とか写真撮影とか、被写体に指示を(的確に)出せる人みたいな役どころに近い AIのエグい書き込みの絵を違和感なく修正出来る人は一から書いた方が良さそう AI絵で何かするならアニメーション関連に行ったほうがいいかもな
元々が個人では困難ってレベルの作業量だからAI使ってクリエイターですって顔してもあんまり文句言われない img2imgのbatch でフォルダ単位で
加工したいのですが、30枚前後で
止まってしまいます
性能によって1度に作成できる
上限とかあったり擦るんですか? >>492
金は諦めつくけど
2-3ヶ月前のノウハウがもう役に立たない知識になってるのが辛い
今のノウハウも数カ月後にはゴミになってそう🥺 >>535
今はまだ技術や知識として考えずに、急速に進化するお絵描きAIの黎明ライブを楽しむというゲームのような趣味だと割り切ったほうがいい
IT技術は常に追い続けなければ置いてかれるというのは今も昔も変わらんとはいえ、それにしても異常な速度でびっくりするが 俺は法律が緩いうちに楽しんでやれと
思って遊んでるけどな 必要経費なんて海外向けに実写っぽいモデルのエロ絵つくって
パトロンサイトで集金すりゃいいよ、deviantARTとかで宣伝してさ 年明けからAIの環境構築はじめたけど、今めっちゃ面白い >>535
すべてのノウハウがそうなっていくから書き換えていくしかない
そのうち車の運転とかアナログ世界のノウハウですらゴミになるかもね これから10年の間で加速度的に色んなスキルが無用になっていくんだろうね AI画像生成の楽しさ、有用さ、革命性は普通じゃないからな。 六角大王でポチポチモデリングやってたのが、スカルプトなんてもん出てくんだから
そりゃ今現在のAIのノウハウなんて数年後には無意味な物になるのが至極当然の流れなんだろうなあ >>544
AI 画像作成によって興味持ったんだけど
3Dアニメーションのエロ動画って何で作ったら楽なの? 今日から始めたけど数値一個ずらしたり単語一個足すだけでガラッと出力が変わるからずっとやってられるな もっと手軽に理想の絵が出力できるようになるまでは見てるだけにした >>546
ここから、できあがった自信作をSNSにあげて「ぜんぜん反応ねーな」ってなるまでがワンセット >>545
手っ取り早くエロ動画作るならMMDじゃないかな?モデル配布されてんでしょ
モデリングから始めんならblenderで
どっちも金かかんないんだから、凄い時代だよ本当 階層マージのbase_alphaって何を表してるんだこれ
0.01変えるだけで全く違う絵が出てきたりする エロゲーの大半がAI出力画像になってきてるぞ
どうすんだ >>549
こういうの追って体験くらいはした方がいい
黎明期から続くノウハウの蓄積は時代の遷移ごとにどんどん笑えない強みになっていくよ 絵もいいけどはよ動画カモン
できること半端なく広がる >>553
著作権的に危ういものになって権利主張出来ずにオワコンになる未来しか見えない 自作3Dモデルに適当にポーズ取らせてi2iでイラストにすんのがクオリティを安定させる一番楽な方法だろう
最初は自分の描いたキャラ絵を学習させようかと思ったんだが余計なことしてモデルが劣化する気しかしない なんかStable Diffuison webUI最新に更新したら
起動と画像生成は普通にできるけど何か入力したりするたびに
コマンドプロンプトにERROR: Exception in ASGI applicationの表示出てくるんだけどおま環?
それのせいか以前から使ってたbooruタグの入力補完拡張機能が反応しない >>561
git pullで更新したものとして、↓ここのページに更新履歴があるので
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commits/master
ちょっと前の更新の右側の青文字をクリックして、右上の方に
commit 20a59ab3b171f398abd09087108c1ed087dbea9b
って感じで40文字のsha1が書いてあるので、
git checkout 40文字
で古い状態に戻せる。 YouTubeぶっこ抜けばいいだろう
今は公式が自らなんでも上げてくれるし
上げてる時点で少なくともGoogleには学習に使われても文句言えない
動画投稿サービスって大体アップロードされたコンテンツ滅茶苦茶自由に使っていいと規約で決まってるのが殆どだからね >>561
とりあえず一旦extensionを消すか、初期設定を消すかだな
最新版にはなんら問題はないから導入し直すのが一番だが >>562
>>564
サンキュー
最初知らずにgitじゃなくてzip形式でやってたからその教えて貰った場所から古いバージョン見つけて上書きしてみたけど状況変わらなかったわ
とりあえず今度はgitで一から導入し直してみるわ >>550
わかる
絵でもなんでもそうだけど人間が苦労して作ったという共感部分がないと、誰も反応してくれないのな
Twitterみてもなんの感想もないから自分の周囲も飽きてツイートしなくなっていってる もうプロンプトこねくり回すだけじゃ誰も見ないからな 昼飯のツイートには30以上のいいねがつくのに、AIイラストはいいね1桁もつかないからw
絵描きからはフォローを解除されるし、似たような連中だけ集まってオナニーしてるんだろうな >>469
発色が違うのか…
モデル特有の偏りをVAEでずらせるかなぁと思って
試してたけど違いが判らんかった… 本気でAIで画像生成してる奴、日本人は100人くらいしかいないんじゃないか説あるよね 広告のイラストとかyoutubeの静止画動画とかどんどんAI絵が使われ出してるな
確実に手描き絵師の仕事は奪われてるしこのスピードだと全滅は時間の問題っしょ サブスク費用かかる割にローカル勢と差が開きすぎたNAI民は確かに消えつつある
代わりにクオリティで全てを蹴散らすMJ系列はもう当たり前レベルで浸透してるわよ
AI絵師とか気にしてる場合ちゃうで >>562
Additional Network関係のExtension入れてないか?
Extensionも更新しないと・・・。 >>561だった。
Extensionが古いものがあると思う。
Extensionを一度全部消して、一つずつ入れていってみるといい。 colabにドライブのマウントができてるんやが 呼び出すとNo such file or directoryになってま
う ホロライブの公式MMDモデルはAI学習が大衆に認知される前に保存しといたほうがいいなと思う今日このごろ AIの画像生成に使う分にはそこまで高精度の3Dモデル要らないから
VROIDで大まかに再現したものとかで十分だとは思うぞ >>569
色以外も変わる要素あるから色々試すとええで
anyとnaiは中身一緒と聞いたことあるが
実写系の使うとよく分かる >>524
絵が描けない人間は大勢居ても、絵が分からない人間はほとんど居ない。
皆義務教育で美術は習ってきてるんだし、良い絵か悪い絵かは分かるしどの部分がどうおかしいかも分かる。
それを完全に直すのには技量が居るけど、AIと協力すれば素人にもできるという事が DBでモデル作って既存のモデルと階層マージして、更にHNで調整して、プロンプトこねこねしてi2iで調整して…
っていう過程そのものが楽しい >>581
『義務教育で教えているものは皆が同じレベルで学習出来ている』と思ってるのなら君は世の中を知らな過ぎるよ
外に出て人と接しなさい 人類みなオタクかインスタパリピなのだからエモ絵のなんたるかは理解しうる、に言い換えてみてもいい >>560
モデルのパーツは自分で描いたり出力された絵から切り取れば簡単に自分の絵柄作れるよな この過疎板に来るレベルの人間ならAI扱うくらい造作もないけど
腐女子とかには難しいだろうなあ >>583
そこまでのことは言ってないし思ってないわ
ペンで紙を擦ってその位置に色を付けることができる程度の技量があれば大丈夫と言う事
それは皆できるでしょ すまない、>>583はまだ生まれたばかりなんだ、許してやってほしい ここは世から隔離された過疎スレ
世間一般人はAIお絵描きなんて興味ないどころか知りもしないわ >>586
今はお絵かきといえばipadな時代来てるのもあるんじゃね プロクリすげーシェア伸ばしてるからな
肝心の絵描きがまともにAIの恩恵受けられない要因の一つだわ >>590
世間一般ってのはネット環境のない人間の事?半年前の話?
tiktokもinstaもスマホアプリもAIイラスト溢れてて
AI生成アプリもドン引きするくらい蔓延ってるから見てこいよ 実はそんな事もなくて利用者は裏側知らないだろうけど滅茶苦茶流行ってるんだよね画像生成AI
仕組みは完全にi2i
YOASOBIの2年以上前の楽曲「たぶん」が世界中で大流行 流行のカギTikTokの「AIマンガ」とは?
https://news.yahoo.co.jp/articles/a6474b8a1f4a5813ef1e992386cabd40b48891be >>592
オタク以外の友達とか付き合いないでしょ
少なくともオレの周囲や会社の同僚達もみんなほぼ知らないor『そういうのあるらしいねー』ぐらいの認識だよ
世の中そんなもんだぞ 流行ってなかったら誰も焦らないし
デマ難癖つけてまで抑制しないだろうね
AIアンチなら危機感持ったほうがいい
エンジョイ勢に突っ込んだ結果、疎まれて逆効果になってる事案が多いようだけど🥲 オタク界隈の中ですらAIお絵描きなんてまだまだマイノリティなのに、それどころか世間一般へ浸透してると思い込んでるなんてマジでやばい
ネットばかり見てないでマジで外出て対話しろ スマホアプリのひとつの機能的な意味では若い子にも流行ってるかもね
元々顔修正とかもAIって意識せずに使ってるし
気付かぬうちに浸透して当たり前になっていきそうではある 画像生成AIをどういう見方するのかで全然違うんじゃないかな
AIお絵描きという意味ならまだまだマイナーではある
でも別に画像生成AIってクリエイターだけのものではないしTikTokみたいにフィルターにされて10億回閲覧されてる事もある
https://i.imgur.com/xrLeeS3.jpg 流行りとかそういう段階は通り越したんじゃないか
もはや画像検索で生成出来るように組み込んでるし 何年前だったか、makegirlsMoeを使った時の戦慄は間違いじゃなかった >>596
有名人がツイッターに絵描きAIに書かせた自分を上げたりしてるよ Twitterで絵描きが一人壊れてた
あんまり煽るな >>599
それこそSDは全人類をクリエイター化するような事を掲げてるしな
自分で望む画像を作るのがみんなにとって当たり前の事になるだけで、クリエイターは死なないしむしろ莫大な数に増える 女神「あなたに好きな神絵師に一日一枚好きな絵を無料で依頼できるスキルを授けましょう」
これで理想のイラストを描いてもらえるやつが一体何人いるのかな☺ 最近話題になってたOrengeMix2この前試しに使ってみたけどこれはエグいと初めて思ったわ
ルーツが滅茶苦茶である事は一旦置いといてあまりにも高品質なものがボコボコ生まれてくる現象は絵描いてる人にとって筆を折る原因になると素人でも初めて感じた
Waifuとは比べ物にならないレベルだったわ >>589
小説が書けなくても、文章が読めて最低限の文学の知識さえあれば、ここ良いなとか変だなとか感じることはできるでしょ
もちろんここを直したいと思えたところで、その人だけの技量では困難だけど、そこはAIに頼れるでしょってこと。
勿論それは芥川賞が貰えるレベルとまでは言わないよ、でもAIが作る大体は良いけどおかしい部分があるコンテンツを、
どの部分を取っても悪い所はない程度に直すことは素人にでもできるよということ
これでお分かりですか? OrangeMix2見てきた
あの絵で萌えられる人もいるんだなと驚き
AIは良いものの見分けができないから作る側に良いものを見分けるセンスがいるね 大儲けしたいと言うのでなければ
自分が好きなものを作って、それプラスで共感してくれる人が少数いれば良いんじゃないの >>610
そんな絵柄固定されてるか?
絵柄固定されてたら人気でないと思うがな‥ >>606
俺もOrangeMix2で筆折った口だわ
人間の手で描けるもんじゃないと >>610
ほんとこれ
あんなもので喜べるのが羨ましいわ
味音痴が何を食っても幸せなようにセンスがないことがプラスに働くこともあるんだろうね
俺達は違いが分かっちゃうからなあ >>610
じゃあどういう絵ならおまえは萌えるんや? 正直サンプルあてにならないぞ
自分好みのプロンプト突っ込んで調整して初めて使い心地がわかる >>609
みてきた
この絵を量産されると困るような気がする >>607
そもそも最初は>>524に対する反論だよな?
お前さ、世の中誰でも絵や文学に対して一定水準の理解があると思わないほうがいいぞ
世の中びっくりするほど馬鹿ばっかなんだよ
マジで表に出て人と接しろと
というわけで、AIがあったとしてもうまく扱えるのはまだまだ一定層なんだよ
という話 >>618
困るやろなー
これが成長途中らしいで‥
もう指が6本wとか言えないんや
最悪なのが性能の良いPCだとさらに綺麗な絵が出てくるらしいで‥
性能の良いPC(GPU)が出る→それに合わせた画像生成AIモデルが発表される→性能の良い・・
この循環は恐怖やな このスレなんJやエロスレに比べてぶっちぎりで遅れてんな 俺「こんにちは、CG板という板を知っていますか?」
なんJ民「えっ5ちゃんってなんJ以外にも板があるんだ!!」 OrangeMix系はCG臭すぎて抜けない
まだ7th_animeのが良い すげー絵が出力できてもな
そこそこのクオリティでも意図通りの絵を出してくれた方が役に立つ つかゴロがみんなOrange系使うから別のモデル使うだけで見飽きたやつが飛びついてくる 色々試したがAnything-v4とAbyssOrangeMixと7thAnimeV3Cが好き 3060導入したから今まで使えなかったハイレゾ機能を試してみてるんだけど、
色々設定項目あるけどデフォでいいのかな、なにかオススメ設定とかある? Counterfeit v2は簡単なプロンプトでかなり描き込まれた背景が出てくる >>634
サンプラーはDPM 2M KarrasかDPM++ SDE
リアル寄りなら別のにする、忘れた
どっちも40step
512×768の1.5倍
アップスケーラーはアニメ調ならanime6B
リアル寄りはなんだっけな忘れた 質問スレにするのは賛成だな
初心者さんがけっこう来てるみたいだしお気持ちも書き込みにくくなるだろうし webuiでhiresの比較するために設定いじってたけど透かしとかあるんだな、AI生成隠してるような人はちゃんと透かし消して公開してるんだろうか >>636
俺もそれ使ってる。
ただ学習したキャラでエロが
出にくいのが難点かな orangeMix2は実写みたいな体と塗りにアニメ顔で化け物にみたいに見えるんだが 実写みたいな塗りのアニメ顔が好きな人向けモデルってことです >>641
答えは爆乳ルネッサンスや
新しい価値観が生まれたってことやろ
アメコミの絵柄受け付けないとか嗜好は人それぞれやからなー
切り替えて行け OrangeMix2が好みじゃないなら、他のモデル使えばいいだけ
選択肢は山ほどあるから、どれか趣向に合うやつに出会えるでしょ
なんならクールジャパンでも使っとけw Latent-NeRFやSJCのような3Dモデル生成AI気になってるんだけど使ったことある人いる? >>641
NAIやWD使えばいいよ、この毎日10本くらいモデルが投下される時代になんで特定のモデルだけ叩きたいのかわからんわ
仲間が欲しいのか承認欲求満たしたいのか知らんけど小さい自己満足かいな >>643
ルネーッサーン 情熱ー 僕のこの手はー いつも何か探しー 萌えてる~♪
爆乳なのは望むとこなんだけど、首から股間までを伸ばすプロンプトって無いですかねえ
乳に大して胴体が華奢になるのは同じモデルを使う限り変わらないのかな?
long bodyって入れても顔と体のバランスちっとも変わんないのよ OrangeMix2の話題が出ているから感想を述べているのだろう、別におかしな流れじゃない。
Abyss7th、OrangeMix2といったマージモデルは特有の癖があって初見だとすごく見えるが、それが不自然に感じたり、濃いと思うことはかなりありそう。
そういう人にはAnything-v3.0やElysium Anime V2あたりの方が好まれると思う。 あれ他スレから宣伝にきてるだけやろ、正直わざわざ使うほどでもない long torso でいいのかな? あじゃます試してみます >>650
でも4chanはだいたいみんなabyss使いなんだよなあ アニメ調ならanything v4.5良いよ
v3よりプロンプトに従ってくれる プログラミングに詳しくないのですが
safetensorsファイルが安全だというのはどういう理屈なのでしょうか? tensor error修正するとElyV3もかなり良いがね >>651
long tosoもlong torsoも効きませんでした、残念
そんでプロンプト(トークン?)についてググってたら、76個目以降は切り捨てられるとか書いてあって
それを調べられるコードがあったから走らせたら、自分のは143個とかあって、ほぼ半分切り捨てられ取るやないかい! >>660
それは昔の仕様で、今は75ずつ分割してそれぞれ別に解釈されるようになってる。 >>657
ckptはPython内蔵のpickleモジュールを使ってモデルデータをファイル化・復元してるけど
このckptファイルを配布することは想定されてなくて、任意のコードが実行できてしまう
safetensorsはpickleを使わずに同様の機能を実装してるので、任意のコードを仕込めない=安全 >>661
∑(゚д゚lll)ガーン 昨年の記事なんてもう役に立たないのか >>662
へー
ckptってそういうものだったんだ >>662
なるほど、safetensorsならコードを仕込まれる心配がないんですね。
ありがとうございます! 今後はなるべくこちらを使うようにします >>663
先週の情報すら役に立たなくなる状況で何言ってんだい
今もwebuiが大幅アプデでなんJが阿鼻叫喚してるわ 俺もbody is volleyball playerで胴体伸ばそうとして
バレーボール持ってる女の子が出てくるだけだったな tall girl short legsとかのワードの組み合わせで胴長バランスは出てくるっちゃ出てくるな アプデの混乱を楽しめる人でないと(AIを使うのは)難しい
まあ不具合起きてもgitで戻せばいいだけや >>639
初耳なんだが
メタデータのことじゃなくて? 大分下火感がでてきたな
AIの嫌われっぷりが大きいのか。。 むしろ下火になってくれたほうが技術を独占できて俺らの得になる 一般的には、こんなもんか、って感じで馴染んだと思う
凄いはすごいけどAIっぽさみたいのがあるよね、みたいな
もう一段階技術のブレークスルーが来たら創作全体のイノベーションみたいになるかもしれない。 知らんけど 見分けがつくうちはやっぱりあんまり評価されないよね
AI生成=誰でもできるって思われてる まぁ反AIが下火になってるのは確か
AIは格段に進化してるのに反AIは何も変わってない 相変わらずi2iのパクリ問題で叩き続けてる感じだしな
ただのトレパクなんだからフォトショでもクリスタでも同類のクズは腐る程いるのに 質問です。
AI生成はとりんさましかやったことない超初心者なのですが
pixivにとても好みの顔のAI絵を出力している方がいて質問したところ、こちらを使っていると教えてくれました
ttps://www.reddit.com/r/StableDiffusion/comments/zpansd/automatic1111s_stable_diffusion_webui_easy/
ひとまずダウンロードしてそのまま実行してみたところ作成することはできるのですが
バタ臭いリアル系の顔しか出力してくれません…
その方の作品はこのようなリアルとアニメの中間のような物凄い好みの顔だったのですが
ttps://imgur.com/a/rSSs53x
絵柄を指定するプロンプトがあるのでしょうか?どの作品もこの絵柄で統一されていました。
自分で描いて指定できればと思ったのですがi2iも読み込んだ私の絵を無視して同じようなバタ臭い顔になりました… お気持ちにすぐ反応しすぎ
全員>633で仲良くやって >>682
Dreamboothという学習ツールを使って自分好みの絵柄を学習させていると思うので、Dreamboothを導入してください >>682
Stable Diffusionは学習されたデータ(モデルと呼ぶ)を切り替えて使うことができます
インストール直後はSD公式のモデルしか入っておらず、そのモデルの出す絵が「バタ臭い絵」ということです
イラスト系の絵が得意なモデルはAnythingやOrangemix、7thなどいろいろあります
その方にどのモデルを使っているか聞いてみるとよいでしょう
(こういう初心者向けにとりあえずここ見てと言えるサイトはないのかな) 今一番きてるAIってどれ?
novel AIが流行った時期に少し触ったけどそれ以降のことが分からん >>684
ありがとうございます!Dreamboothでググったところこちらが出てきたのですが
ttps://webbigdata.jp/post-15118/
好みの絵柄や自分の絵柄で統一させるには相当量学習させないといけないってことでしょうか…?
記事のサンプルはひと昔前のAI絵みたいで、ここから美麗絵にするには相当の量の絵が必要なのかと思いました
>>685
ありがとうございます!根本から理解していなかったことを理解できました!
その方に教えて頂いたものをDLすれば同じ絵柄で即自分のキャラを描けるんだと思い込んでいました…w
どのモデルを使ってるか聞いてみます!
自分で描くのが好きですが苦手な部分をAIに手伝ってほしいものでプログラミング等は全くできない初心者でして
質問スレや初心者指南サイトがあれば非常に助かるのですが見つからず書かせて頂きました >>689
学習は画像8枚あれば20分ぐらいでOK ワッチョイが好きな人はもうあるからそちらへ
【StableDiffusion】AI画像生成技術13【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1673213503/ >>692
承知しました!
使用モデルの名前がわかったのですが、モデルをDLして切り替える方法等参考になるURLはありますでしょうか?
StableDiffusion モデル切り替え でググりましたが自分でコード?を書くような方法しか見つけられず
DLして指定のフォルダに入れておくとUIで切り替えられるようになる、という代物ではないのでしょうか…?
どこでモデルを切り替えるのかがまずわからず躓いています… >>694
モデルの切り替えはブラウザで表示しているUIの左上にあるプルダウンメニューから行います
うーむ、こういう基礎から解説しているページはどこにあるのか >>694
あ、ダウンロードからか
.ckptや.safetensorを1111がインストールされているフォルダのmodelーStable-diffusionフォルダに入れるんだけど…
>682はStable Diffusionのインストール方法から標準的なやり方ではないからそれでうまくいくかはわからん
huggingfaceでモデルをダウンロードするのもなにも知らないとわかりにくいし
わからない→ここで聞くではなく、自分でも検索してどうしてもわからなくなるまではがんばってください >>697
ありがとうございます!まさに基礎から解説しているページがなく、ググってもある程度わかる人向けのようでちんぷんかんぷんですぐ聞いてしまいすみません⋯
分からなかったことがかなり聞けたのでもう少し頑張ってみます、ありがとうございました! なにもわからない赤ちゃんだけど解説サイトのいうとおりにコマンドラインでgitしたらインストールできたよ 彼らはまだ睾丸の中で泳いでる段階なんだ、許してやって欲しい PCの購入の仕方から電源の入れ方もちゃんと解説しないとな よく考えるとあれが実行できるってハイスペ赤ちゃんだよな
異世界転生者かな 初心者はPythonのインストールで躓く
次にCUDAで躓く。インストールできてもPyTorchが認識しないとかでハマる
半分はNVIDIAが悪いんだが >>690
それはマージ用。
0.1~0.25ぐらいで混ぜると有用。 ダメです気を抜くと肌の色がRGBとして白に近づくので 学習で90年代アニメの画風と色調を再現してる人はどこかにいたような
モデルが公開されてるかは知らんが 思い切って顔も体も背景もリアルに寄せた画像生成させると
最初はうわって感じるけどすぐに慣れてアニメ絵では満足できない体になるわ
実写風モデルのトレンドはずっと続くんだろうな 気のせいかゲイ画像はSD1.4がいまだに一番出しやすいような 上手い絵ならいくらでも出てくるけど欲しい絵が出てこないのが課題だな
これが解決したらマジで絵師消えると思う AIだけで本当に欲しい絵を作るとかそれこそ脳波を読み取って描くとかにしないと無理だと思う
流石にそこまでは50年くらいかかるだろ こういうのは技術の話なの?話に乗っていいのかわからんわ >>714
ゲイは陽キャ多いからAIに興味ないんだよきっと 理想の絵を出力するための方法論なんだから技術だろ
脳波読み取り装置は誰かが頑張れ AIでのイラスト大量生産で一番メリットあるのが漫画なんだが、欲しい絵が出ない問題のせいで活かすのはかなり難しい
まあ現状でも背景には使えると思うが >>715
欲しい絵が出てこない、じゃなくて出すんだよ
根性と技術で
>>721
どのぐらい試したうえでの判断かわからないが、今は学習や各種もモデルの使い分けを駆使すれば数ヶ月前よりも格段に表現力上がってるよ 画風とか装飾物を一致させないといけないから漫画は難しいよね
赤松健がAIで漫画書く方法をどこかで視察してたから研究はされてると思うけど 赤松健がAIで漫画書く方法を聞いてた話どこにあったかなと調べようにも
赤松健 AI 漫画 で検索したらAI止ましか出てこねえのよ
法整備に関しては動画でもう報告されてた
https://youtu.be/GwNm-3SXFD0 >>715
版権絵を作りたいときに起こりがち
良い絵がいっぱいできてても
似せるという至上命題のために捨ててる🥺 >>716
人間の頭ってそんなに明確にイメージを構築できてないんだよなあ
絵でも文章でもいざ書こうとしたら何書いたらいいか分からないってよくあるだろ stablediffusionファイルを指定位置に配置しても
パスが無いと言われる場合の対処方ってありますでしょうか? 状況がよくわからないけど、自分はクラウドで生成したpngを自分のWindowsPCにデータ移したときにパスの長さ制限が問題でPythonがpngを認識しなかったことがある、パスが浅いとこで実行したら解決した また他人の絵をベースにi2iするやつが出てきてしまったか・・・。
他の人が炎上してることとか知らないんだろうな。 >>729
状況説明が少なすぎて答えられんわ
そもそもstablediffusionファイルってどれのこと言ってん 8歳の姪は画像生成AIのことを知ってたよ
ヒカキンがやってたので見たらしい >>728
適当に手を動かして線引いてるうちに描きたい絵が見えてくる、みたいなことはよくあるね
今から考えると、ノイズから絵を見出すAIと原理的には大して変わらんのかもしれん >>729
エラーの画面のスクショ貼るのは基本やで >>361
AI絵師ってこの加工師が雑にコントラスト上げたみたいなクオリティの絵有り難がってんのな
技術とか以前にまず目を鍛えた方がいいんじゃないか 実際にこの絵がウケてるんだから目が腐ってるのはどっちかって話やな >>731
なんでimg2img使うんだろうねぇ
txt2imgで偶然似たなら証明できるけど
img2imgで作っちゃうと逃げ場無いのに モデルの質と外部ツールだけあればいいって人は確かにダメそう
だから揚げすぎな画像も平気で投稿しちゃう >>731
知らんがなボケナスがで済みそうな話だけどなw 人並みの知性があればそれなりに絵は描ける
知性が低いからAI絵すらまともに扱えない、それだけの事やろ >>361
これ見て思ったけどTIとかに日本語名つけたら日本語プロンプトで呼び出せるんかな
>>738
twitterの写真アカとかでもバズってるのはコントラスト上げて変な色になってる写真ばかりや
それが人気なのが現実 技術的な内容ならともかく
どんな絵が好きかは人それぞれなんで
それを腐してるやつはAI絵でも手描きでも嫌悪されるタイプやから注意しいよ
ウンチクだけ垂れる迷惑な老害まっしぐらやで イラストをインプットにして、評価を計算するAIがあったらいいな 逆にAIが生成したイラストを評価して、高評価にした物を追加学習して好みの絵が出やすいように改善していくような仕組みもほしいな アビスオレンジ系のうっすい色調のCGっぽいやつがウケてる方が意味不明だわ、主に海外 囲碁や将棋のAI見てりゃわかるけど
AIが描いてAIがスコアつけて再学習してなんてサイクルはそう遠くないやろ >>752
そうしてみんな同じ顔になってマスピは飽きたって言われる未来しか見えんわな
ChatGPT使ってると発想力が阻害されるって教育機関から締め出しが始まってるし
SDGsと一緒でなんでも意味も意義もなくただ機械がやってることにAIってつければいいAIに任せればいいと思ってるのは大きな損失
初心者インストール使うと、せっかくやりたいことに付随する学習の機会を損失してるようなもの
ほおり出されてアップデートどうすんのよってな~ 「美術的スコア」みたいな数値だけで学習させたらみんなマスピ顔になるかもしれないけど
「出力される画風の多彩さ」とか新しい評価基準を追加すればいけそうじゃない? アニメ塗り、やってみたら普通にできた
NAI:masterpiece, best quality, high quality, 1girl, anime_screencap, animated gif, mp4, video, animated
ネガティブ:NAI汎用
https://i.imgur.com/a86551h.png
https://i.imgur.com/X5hnzLs.png
WD1.4e2:masterpiece, best quality, high quality, 1girl, (anime style:1.3)
ネガティブ:nsfw, worst quality, low quality, deleted, lowres, comic, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, jpeg artifacts, signature, watermark, username, blurry
https://i.imgur.com/AvqLfWA.png
https://i.imgur.com/qgREAmm.png
Anifusion-SD:1990s_(style), retro_artstyle
https://i.imgur.com/veFDStA.png
https://i.imgur.com/hLmjlsS.png >>754
スマホだってアプリだって仕組みを知らなくても誰でも使える
別にそこに必要以上の学習なんていらんのよ
ただの道具なんだから
そんなんじゃ食洗機否定してる老害みたいになるよ >>730
Cドライブ直下に作ったんですがパス無しと言われてしまいます
>>737
了解ですスクショ撮ったらアップします 使ってる奴なら色んな画風で生成できる事は分かってるやろ
それでも収束するのはもう単純にその画風が好きなユーザーが多いってだけや AIお絵描き=NAIのマスピ で止まってる人多そうだな >>759
そもそもpythonのインストールでミスってんじゃね
パス通してないあるある >>759
前にインストール失敗したPythonが悪さしてるとかありそうな予感 >>765
マスピじゃないけどこれならマスピの方がマシってやつ >>754
平均値こそ美形ってやつか
magiシステムみたいに別のことを考えるやつがいないとダメだろうな >>765
これもそうだけど、目だけ書き直したら良くなる
マスピ絵の特徴は目 塗りが最も重要なのは言うまでもなくこの議論の前提でしょ
多少塗りを調整した気になってても>>765くらいじゃ臭さが抜けないよ
目を直せばちゃんと別物になるってことを言ってる マスピ顔について聞いているにも関わらず
塗りがマスピとか言われてる76の気持ちを140文字で答え…なくていいからいい加減雑談スレでやれよ 顔の塗りってことじゃないの?
俺はやっぱり目が重要だと思うけどね
あのまつげをしっかり書く台形って相当特徴的だし。
例えばかわいらしいキャラならよりかまぼこ状にするとか
まつげを目の下までつなげるとかするだけでも相当印象変わる AIにマスピ顔がどうとかどうでも良すぎやんけ‥
塗りが気に入らんならVAE変えて終わりやろ
影や光が気に食わなかったら光と影のプロンプト弄っておわりやろ
そもそも全体的に気に食わなかったらモデル変えて終わりやろ
本当にどうでもええな‥ 大きく分けてもそれだけの要素があるならけしてどうでも良くはないだろw
十分話題にできるじゃないか 有名絵師の絵に最近のモデルでi2i掛けるとえげつないクオリティになるから
どうやってもi2iによるパクリ絵だらけになっていくよね
バレてるやつは下手なだけで工夫すれば輪郭だけ変えられるから詳しくない人には看破されない 絵師の絵弄ってるのは個人で楽しめと思う
透けさせて楽しんでてスイマセン
オリジナル系もフェチ全開で楽しんでます ぶっちゃけ元絵よりクオリティ上がることも多いから、元絵の絵師に広告料とかが渡るような仕組みを作ってi2iの絵を広告視聴必須にして発表出来る場みたいなのがあっても良さそうなんだけどな 名前だけで出てくるような有名キャラ以外で特徴的な髪型や服の柄まで再現してるのは9割i2iかDBモデル使ってる つかもうパクリだなんだいうだけ無駄なところまできてるな >>780
別に手描きでトレスしてパクるのもi2iでパクるのも結果は変わらんからな
世にでた時に対処するだけの話や
AIが出る前と同じように対処するだけの話やね i2iする分にゃええやろ
自作画でやれって話であって >>781
対処ってわーぱくりだわーって人力で騒ぎ立てること?
人力のペースで生産してるものに人力でやるのは追いつくだろうけど
圧倒的に簡単に生産できる状況でそれって何の意味があるんかね
近所の空き地で焚き火してるやつに臭いはいう意味あっても大量に走ってる車に排ガス臭いは追いつかないようなもん アナログデジタルai問わずパクられたと思うなら侵害だって訴えれるのでは? AI生成したら誰かのサイン入りだったなんて普通にあって草 将来的にどうしていこうかね?って議論は赤松健がやってくれるだろうから目を通しとけ
https://youtu.be/GwNm-3SXFD0 >>783
パクリで儲けた奴に訴訟を起こせる意味は昔からあるやろ
弁護士様の飯の種が増えるで!
大手の二次創作が許容されてるのは費用対効果が悪いという側面もあるからな
二次創作からの二次創作の問題は難しいやろなー
パクられた側が権利を主張したら自分がやった二次創作について言及されることになるしなー
一次創作したのをパクられたら分かりやすいんやけどな 二次創作からのパクリ訴訟はよっぽど上手く立ち回らないと原告も激しく叩かれるだろうな サイン入ってるのはAIが予測で入れてるだけやぞ
元の絵を参照してるってわけじゃない。 絵を描いてる絵師だってタダで他人の絵やあれやこれやを見て学習してるはずで、それをせこい個人が地道にやるか半無償の愛を持つAIが異次元の爆速でやるかの違いなんだよなって 赤松健てただのキモオタ信者の力で当選した元漫画家ちゃうん?
法と倫理の専門家なんか? サブカル出身議員としてほぼ唯一のオタク文化の理解者だからその辺のオタクよりは格上だな >>790
その通りだな、人間くんも学習目的なら全てのコンテンツ利用は無断無料にしてあげるべきだわ、不公平で可哀想 人間は1枚の他人の写真参考にしただけで作家生命絶たれるレベルで叩かれるのに
AIは全世界のあらゆる絵や写真を取り込んでるんだから競争になる訳ないんだよな
適用されるルールに違いがあり過ぎるから今のルールなら手描き絵師は廃業しかない 単発が嫌ならワッチョイスレへどうぞ
【StableDiffusion】AI画像生成技術13【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1673213503/ >>794
それだとAIくんは有料で販売されてるコンテンツも全部タダで見放題って言ってるように聞こえるな 人間→学習目的なら無断無料です。写真を参考にしただけでめちゃくちゃ叩かれることはありません。トレパクはめちゃくちゃ叩かれます。
AI→学習目的なら無断無料です。写真を参考にしただけでめちゃくちゃ叩かれることはありません。トレパクはめちゃくちゃ叩かれます。
一緒じゃん🤗 誘導されたスレみたけどAIの話なんてしてないし、話してる内容の意味がわからんのだが 一方は過疎ってるし >>791
ここで管巻いてる俺らよりよっぽど仕事してるぞ 人間絵師さんへ
あなたが生きづらいのは法律のせいでもAIのせいでもありません
あなた達のお仲間であるトレパク警察と正義厨のせいです
恨むなら嫌がらせに人生かけてる彼ら彼女らを恨んでください
同業の粗探しやイジメ、悪口大会してる暇があるなら絵の練習とマーケティングがんばってください
あなたには輝かしい未来が待っています
でも掴めるか掴めないかはあなた次第です
応援してます 著作権はあらゆるものに発生するので、著作権を根拠にして規制すると画像生成以外のAI開発もほぼ止めることになる
けど、今の状況でAI開発を降りるって現実的では無くなってきてるからな >>798
単発がどうこうではなく、スレチなのでよそにいってくださいという話です >>795
ここは技術のふりしたお気持ちスレですよ? 俺はゆっくり進行の雑談スレだと思ってる
ここで最後に有益な情報得られたの去年の9月とかだし いいんだよ、インストールできない起動できないの隔離として機能してくれれば… StableDiffusionでスレタイ検索するとこことエロスレが引っかかるから
新規参入隔離にちょうどいいんだよね
緩く進んでいこうぜ どうせなら前に来た女の子っぽい素人がいい
チー牛に教えたくないんよ 17歳素人のJKです
赤ちゃん未満でもわかるようにLoRAの導入から教えてください
特に正則化画像のとこを詳しくお願いね ちょっと質問失礼します。
久しぶりにwebui更新したら出力時のプログレスバー?が表示されなくて
設定でイジることも出来ないようなんだけど復活させる方法ってありますか? >>814
先週末のアプデがらみだと、一部extension関連で起動できないのもあるし
そこを突破出来て動作がおかしいならvenv以下全削除で再起動かな
簡易インストーラーとかでpyhonやCUDAを別でインストールしてないと、そこからの全インストールでめっちゃ時間かかるけど
別で入れてれば再構築は10分くらいだし気楽にできる範囲だと思う
再インストールは最後の手段だぬん 単に設定で該当の項目を探せてないだけでしょ
config.json開いてshow_progressbarがtrueでも表示されないのなら不具合かもしれんが Colabだとしょっちゅう止まってプログレスバー動くほうが珍しくなってるわ
ngrokでもプログレスバー止まるし、automatic1111の欠点やろ Colabやngrokじゃなくてローカルでやればええやん >>812
おばさんだけどいいの?
ちな100kg >>826
でもなぜかあいつら名器だからすぐいっちゃうんだよなあ >>824
僕には需要ないけどきっと誰かには需要があるさ 1111はひょっとして今、絶賛泥縄アップデート中なの?
新規にセットアップしても動かない
数日前のコミットに戻してセットアップするか 今日さっきpullってから起動してあそんでるけど普通に動いてるわ Stable Diffusion Web UIの導入でつまずいてしまいました知恵を貸してください
https://ossan-gamer.net/post-82301/
モデルはanything-v4.0.ckptとanything-v4.0.vae.ptをダウンロードしました
↑のページ見ながらwebui.batを起動したら以下のようなエラーが出ました
https://i.imgur.com/CCw2amR.jpg
あとStable Diffusion Web UIをどこで起動すればいいのかよく分からないです宜しくお願いします >>833
起動すんのって、webui-user.batのほうじゃね? >>834
うわあああああああああ
行けましたありがとうございますうううううう
あとweb uiの起動も理解しました感謝です!! >>835
参考にしてる記事が間違っとるから、しゃーないね
ではお楽しみを 実写系モデルは服装はリアルっぽくなるけど肌の塗りは逆にやばくなるし背景も劣化する
人物に重点置いてインスタからサンプルぱくってるなら背景の劣化はまあ分かるとして
何で肌の塗りが駄目になるんだ水着写真とかいくらでも転がってるだろ? >>837
なんかひとまとめにしとるけど肌綺麗に出るモデルもあるよ
あとプロンプト次第でもあるし 解像度あげれるExtrasってやつ
あれとんでもなく有用だよな
年寄りのクライアントだと画質いいやつとか解像度とかだから容量のでかい画像をよこせ
スマホで撮ったままでいいエクセルとかwordに貼るなって言ってもまったく通じないから
Extrasで4xにしてこれでよければ使うよって見せてで出来るようになったのすごすぎる >>839
こういう奴ってどんなに写真に見えても肌の塗りが~って難癖付けるよ
そうやって俺スゲーして優位に立た無いと自分を保てない人種
昔どっかのスレで実写風CGにパースがおかしい色が変俺は騙せないとか散々突っ込んでたのに実はそれ本物の写真でしたって言われて恥かいてる奴思い出した 写真取ったことないの?
下手くそが撮ると普通にパース崩れるよ ケツに食い込むジャージとか最高です
尻ばかり作ってたぜ 魚眼レンズとか普通にパース崩れとるやん?
あれは時空を歪ませてるからそう撮影できてるんだよ 現実世界の地面は平らではないし道も直線ではないし電柱も垂直ではない
そんなものはCGの世界だけ いつの間にやら技術とか生成そっちのけの雑談スレになっとる
twitterでAI絵師がトレンドだからTL見てみたら
誰もがNAIが流行った2ヶ月前と同じこと言い続けてるの見て狂気を感じた 俺もちょうど見たけど
i2iから生成してるやつが構図も背景も服装も
あまりにも元画像そのまますぎたやつだったわ。
あんなのそりゃ批判されるわ i2iで一番簡単なツールって何?
ギフハフとか分からんから、もっと簡単なiPadアプリとかないの 現状、i2iは元絵から丸パクリしないとろくなものを生成しないから、現在Twitterに得意げにあげてるものはほぼ元絵あり
のぱくり
そりゃ人間性も疑われるし非難されて当たり前 定規で描いたみたいに全部直線なのがパースが正しいと思ってんだろな
実際は人間の眼もカメラも少し丸く歪んでる レンズが丸いわけだから i2iはt2iとはわけが違う
i2iを使うなら構図含め元絵との類似性が感じられないレベルにしなければ著作権侵害まっしぐらや AI絵師=盗作、犯罪者のイメージが既に定着してる
やってることをみたらしょうがない
YouTubeもイメージダウンがものすごいし、まともな企業はAI生成の絵は使わないだろうと思う パースのことまともにわかってもないのにパース語ってるのマジ笑える Twitterだけでもものすごい数のぱくり検証が上がってるもんな
AIイラストそのものは使い方を間違えなければ無限の可能性があるのに、結局、自力で絵を生み出す能力のないやつがAIで絵を触るとこうなる 一部の中途半端なツイカス絵師が騒いでるだけで、犯罪者のイメージは全くないけどな
そもそも一般人は気づいてすらいないニッチな世界を周回遅れで対立煽りして稼ぎたいやつがちらほらいる程度
上場企業でAI学習の絵を使ってるところもあることも知らんのかと言いたくなるが、知らない見えない人には仕方がない
市民権を得た2次創作の方がもっとひどい扱いだったし未来は明るいわな AI絵師って自ら名乗ってる奴はあたおかしかいない定期 i2iの何が悪いのか分からんわ
ニュートンが俺が解明した重量を使うなと言ったらみんなやめるのかよ
手塚治虫が漫画真似するなと言ったらやめるのか >>859
1か月前で頭が止まってんな
最近立て続けに有名絵師からの盗作が連投されていて、イメージがガラッと変わってんだ だっふんだをいくら上手く真似ても志村けんにはなれない
志村けんになれるんなら、元の志村けんがしょぼいだけだろうに 今後もパクパクが発見され続けるだろうからこの流れは変わらんな 地球儀を平面図にするとどうしても歪むのは理解できるやろ
視界を球面として考えればそれを平面に投映した時歪むのは当たり前や ミッドジャーニーが出た頃はAIすげーという風潮もあったけど、i2iが盗作ツールだったもんでAIへの印象がメタくそ悪くなってる パクり絵師が居たからと言ってそいつの問題だし二次創作もみんな大好き、混同してる奴が馬鹿なだけ AI絵師って名乗ってプライドが少しでもあるなら
せめてt2i特化か、元絵とかけはなれてわからんくらいやればいいのにな。
今話題になってるのは元絵と並べたら否定できんレベルで同じだし AI絵は普段はほとんど反応がなくAI界隈から外に出ないのに、たまに出るとぱくり検証のRTが何千と拡散してやってくるから知らない人ほど、AI絵は盗作のイメージなんだろうね strength8.5くらいにして生成した絵入れて戻せば
構図かなり違うようなものになるだろうに明らかにわざとやってんだろw
炎上狙いかガイだぞあんなん 海外でも同じような騒動になってるからi2iタイプの生成はたぶん法規制が入るんじゃないかね 強度上げるとプロンプトの影響強くなってクオリティ出せないからほぼパクりで出力してしまうんやろうなw AI絵がとか大きな括りでまとめすぎじゃない?
i2iだけならTikTokのAIマンガフィルターで滅茶苦茶使われてたし気にする人間なんてそんなおらんよ
別にTwitterだけが世界じゃないし 新しい技術や道具が広まりだすと
必ず悪用するバカが出てきて
既得権益側や保守的な人間がそれみた事かと叩き
ルールやマナーが徐々に整備され
最終的には使う人間側の問題だよねとなる
その過程のカオスこそ楽しいのよ AI絵をあげてるサイトを覗いても人気絵師とピックアップに上がっていても全然反応を貰えてないし、多少珍しがられてる現在でもそうなんだから将来的には誰も話題にしなくなりそうではあるけどね
まあいまを楽しめや 手描き絵をパクルことは正当化する癖にAI絵がi2iされたら大騒ぎするダブスタは流石に笑うわ
あの界隈の連中の頭の中どうなってんだろ 話題になるというよりもう浸透してきてる段階だと思う
出会い系広告でAI絵と思われるものが使われてる事例が確認されてるし
大半の消費者はそれが手描きかAIか意識しないから知らない間に見てる画像がAIだらけになってもおかしくない
AIで完成させた絵をSNSに上げる遊びをやってるのは一部に過ぎなくて徐々に代用されてる事を忘れないようにしたい 著作権は改変を認めて無いんだよなぁ
権利者の許可が無い限りは AnythingV3などGoogle Colabが必須なAIイラスト生成はスマホのブラウザよりかPCのブラウザ専用と思った方がいい? 個人で楽しむ以外の利用法は無理だよな
商業利用には元絵の全ての著作権者に確認する必要あるしな
使用した元絵のリストでも出せばまだ手間が省けるけどな 裁判では、パクられたと考える側がパクられたことを主張立証しなければならないから、
訴訟提起の労力や費用を考えると訴えを断念せざるをえず事実上AIの勝ちなんだわ >>881
企業イメージってもんがあるから、裁判起こされたってだけでダメージデカいやろ わざわざ裁判起こすヤツが現実にどれくらいおるねん、ちゅー話やで >>880
実際はパクリということの定義を定めないとそれは難しいよな
もう無限に言われてる話だから理由は特に言及はしないけど
実用的にはt2iならいけるけど
煮詰まってくるとAIがAI絵を食い始めて共食い生成になっていくから
人力にも還元もして人力を意味あるものとして新しいものを入れていかないとないと血が濃くなりすぎる AI絵も現行法では既存絵と類似性が高い絵を作って著作権者の利益を不当に害することがなければ違法とは言えない
反AI絵の人達は無断転載サイト(danbooru)から学習したAIを使ってることが気にくわないようだか、そこにも違法性はない
(難しいとは思うが)仮にdanbooruというサイト自体を閉鎖させる事が出来たとしても、それを学習させたデータモデルから「danbooruで学習したデータを消させる」ことは不可能に近い
万一今後NAIやDSのサービスやモデル配布が終了したとしても、AIイラストや技術が消えることはないし、彼らが漠然と求めてるような「今と同じ精度で学習データが全て合法でクリーンなAIツール」なんて物が出てくるのは、夢のまた夢よ 同じ要領で画像買い取って作ればいいんだけどね
ぶっちゃけ学習した何十億枚のうちほとんどゴミデータだし ゴミデータはゴミデータで価値がある
それらをlow quarityと覚えさせることでネガティブに使えるようになる ここは技術の話をするスレなので、お気持ち表明したいスレ違いはまとめて移動してね
【雑談】CG総合関連60【AI】
https://mevius.5ch.net/test/read.cgi/cg/1673490335/
AIイラスト 愚痴、アンチ、賛美スレ part24
https://mevius.5ch.net/test/read.cgi/illustrator/1673857560/
ワッチョイ入れたい勢がお気持ちを書いたりお気持ちにわざと反応したりすることでスレを機能不全に陥らせることができるのは完全な非対称戦だよね >>889
自治厨はもういいだろ
それをするほど盛り上がってはいない 9時から10時の話題は完全に技術の話題だったと思うが、お気持ちコピペ貼る要素あった? >>891
1を読め
ここは具体的な技術に関する話をするスレで、社会がどうの著作権だのトレパクだのの話をするスレではない i2iで画像出力するとパクリになってしまう。は技術の話題だよな? i2iについて語ってるんだから。
手描きでの模倣とi2iの違いについて。は技術の話題だよな? i2iの構成について語ってるんだから。 >ここは既存のAI画像生成サービスの【具体的な】技術や動向について語り合うスレです
>AI画像生成の未来や、イラストレーターの職権侵害等の漠然とした一般的な話題は明確に【禁止】します
AI画像生成サービスが法律とどのように折り合いつけていくか、という動向を語ってるんだからスレの内容に合致してるよな?
漠然とした話題ではなく、「法律の話」なんだから禁止されてないよな?
遵法精神皆無で技術のみ発展させればよいのだ!という考えをお持ちで? >>895
【具体的な】技術のスレなので
特定のモデルについての技術等でない、具体性のない一般化した話は総合スレで 画像生成AIに関する質問はこちらへ
【StableDiffusion】画像生成AI質問スレ01【NovelAI】
https://fate.5ch.net/test/read.cgi/liveuranus/1674528060/ ↑CG板に立てたつもりが…とほほ
立て直してこよう 古今のあらゆる絵画を超えることが出来る革命性があるから、そのまま出力はやばい。可能性や仮定の話ではなく、既に超えてるからな。これを下絵にして、カンバスに絵の具で再現するのにうん十時間みたいな世界ならば既存の産業構造に革命は起こらない。 改めて、質問はこちらへ
【StableDiffusion】画像生成AI質問スレ01【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1674528604/ 人間だって人生で見聞きした情報でi2iしてるだけなんだしaiもグーグルアースを自動巡回して被写体を自動認識してデータベース構築すれば人間に近いi2i出来るようになるんじゃないかな 人間のガチ絵師にはネットの海をいくら探しても絶対に被らない
完全オリジナル構図を描いてる人がいくらでもいる
パクリオンリーのAIとは全く違う StableDiffusionなんかも、明らかに美的判断に成功してるからもう革命を起こすか地下に潜るかの2択しかない。 >>903
輪郭や色だけにこだわるんじゃなくて光や空気感も表現すべきだよな >>879
GoogleColabで動くんだからむしろスマホで扱うべきだろ >>902
最新のCG作家なんかは流石に追いきれてないけど、古今のあらゆる美術を超えるレベルと言っても過言ではないものが作れるぞ。 >>908
それ以上自分の教養の無さを晒すのはやめるんだw 超えるっていうと主観になるが、人間がどういう構図や色を好むのかってのを学習してるから
それは当然なんだな。 あ、お気持ちになっちゃったか これだけ指摘されてても技術スレで雑談する老害ジジイみたいなのいるんだな そりゃAIが描いたって隠して出したら最優秀とった絵とか見ればいい 自治しまくった結果ただの他スレ誘導所みたいになっちまったな
知る限り一番古いと言えるくらい古参画像AIスレだったけど一番過疎ってるのもここなのは悲しいね ワッチョイ放棄した時点で諦めろ
サッサと埋めるに限る 老害とかの罵声に比べりゃ雑談のほうがナンボかマシ 言葉が汚いガキに指図される筋合いはない 絵について何がいいんだとかで突っかかってくやつってさあ 専門家が認めた奴だとダンマリになるのな
ほんとミーハーっていうかさ。人に上げろとかエラソーにいってるが。自分の中の基準がないってことだ。
うめうめ どっちがマシとか言う話じゃないが、こうやって反AIのジジババが荒らして醜態晒してる横で
少しでも学ぶ気のある人がより詳しいなんGやDiscordコミュに案内されてるなら機能としては十分かな >>908
美術館行ったこと無いんだろうな
漫画家の生原稿も見たこと無さそう AI技術の未来の話題は禁止って明確に書いてあるな。
最近ROMらないし、>>1すら読まないことが多くてすまんな。
【Midjourney】AI関連総合25【StableDiffusion】
https://mevius.5ch.net/test/read.cgi/cg/1671824170/ 写真で絵を撮影して瓜二つの複製が作れても誰もすごいと褒めないのと同じで、AIでどんなすごい絵をかけてもそこになんの努力も感動もないからな
AIかそう出ないかは制作過程やレイヤーわけが見せられるかどうか
ここを出せないAI絵師に仕事も来ないし、世間で持ち上げられることもないと思う
金にならないからポンポンと出力して遊ぶツールか、素材に使うとかぐらい 最近の特化学習やマージをやり過ぎたモデルって汎用性が凄く下がってて
プロンプト増やせば増やす程クオリティが下がっていくんだよな
パクリ特化にし過ぎて自由な絵を生成する純粋な遊びを楽しみたい人には使い勝手悪くなってる ぶっちゃけ同じ金と時間を使い技術を学ぶなら、3Dやアバターを勉強する方が余程お金になるんだよな
AIイラストは現状、1円にもならない
2~3ヶ月に学んだ知識が全部ゴミになってるのもあるが、盗作、元絵がある認識が広まってしまいCG集も同人誌も全くうれなくなってる >>902
オリジナルとして描いてるのはそうだろうけど、絶対に既存絵と被らないのが沢山と言われると
正直懐疑的というか、あってもそんなの極少数でしょとは思う。多少見る角度が違う、ボーズの
角度が違う、というものを被りに含めると、完全新規な構図なんかまずないんじゃないかな
その上でそもそも、完全に新規の構図というものに余り意味があるとも思わない
誰も描いたことのない凄い絵、というものは存在するだろうけど、構図が新規なだけじゃ
そこに大した価値も意味もないよ。変な絵だね、で終わってしまう話 >>925
世の中結果が全てだよ
同じ形にするなら安い早いに越したことはない
その話は一周回って無農薬有機栽培が小金持ちにありがたがられる状態みたいになるまで待ってろ >>927
その意味じゃwaifu1.4はクオリティ面じゃ周回遅れではあるが比較的バラエティに富んでて遊ぶのに悪くないな
ガチってる1.5で復権期待するわ i2iが大失敗だと思う
AIを知ってる自分の目から見てもTwitterに自慢げにツイートしてるものの元絵はどこから拾って来たんだwと色の着いた目でしか見れない
実際、元絵がないと低クオリティしか出力しないからな 本来は自分だけがみて楽しむものを、得意げにツイートしだしたのが盗作ツールと言われだした原因
実際に盗作だし >>933
複製原画は元を人間が作ってるから原 画では? もう同じ話500回くらいやってんだろw
まだやんの?w 最近のloraでこれは良く出来てるとかないん
追加学習の自由度低下はまだやり過ぎてるだけじゃないかと思うんだよね最近のよく知らんけど 絵描きはドーンと構えればいいと思う
何にせよ絵を描く仕事が全部消滅するなんて事はまずないんだから
ただ絵を描くだけじゃなくて生放送するとか動画配信するとか何らかの活動は必要だと思うけど
これに関してはAIが出てくる前からその流れが来てたけどね >>937
何年も何十年もAI絵が存在する限りこのループは続くよw 新しい話題でも
GIGAZINEで紹介されてたけど「ImaginAIry」って誰か触った?
どっかにレビュー記事みたいなのないもんかな >>940
盗作の可能性が高いというか、現状は元絵がないと作れないAIイラストに仕事の依頼が来る可能性はゼロ
企業はそんなリスクはおかさない
そしてこれからAIが進化しても下絵から彩色していくメイキングはAIには作れない
描いてるんじゃなくつぎはぎしてるから
自分で描いてます、の動画はこれからもっと盛んになりそうなのは同意 そんな技術にひびって暴れまわる反AIさんが馬鹿みたいじゃん AIに描かせた絵をロボットアームで物理的に存在させればOK
恐らく現場ではグリッチやコラージュ系の作風の現代アーティストがAIで描いていると思われたり、表象の上でAIに負けたりしている。 そんなAIに大金はたいて自社サービスに組み込みまくってるマイクロソフトとかいう企業があるらしい AIと仮想空間を政治利用するための莫大な投資を誤魔化す隠れ蓑説はあるけどね CDを売るんじゃなくて音楽ライブで体感させる商形態に変化するみたいなことはあるだろうけど、まあ技術の話題じゃねえな まだ何で使っちゃいけないのか分からない企業もそれなりにあると思う
非オタク業界ならなおさら 名が売れて個性と人脈があり作法もわかってる上位は安泰だけどそれ以外はキツくなるってやつだな
このオーネットにしても本来ならどっかの安いイラストレーターに依頼が行ってただろうけど
それ以上にコスパのいいAIで済まされたわけ
だから海外では必死こいてAIそのものの悪評流したり反対運動してるというのに
日本人といえばAI絵師にフガフガ言って溜飲さげてるだけ
重要なのはAI絵師に仕事が来るかどうかじゃねえというのに むしろ企業でしっかり管理してんなら法的にはだいぶ白だし使っちゃいけない理由ないぞ
MicrosoftとGoogleが本気出してきたのに使わんでどうするとは思うな イメージ2イメージはあんまり良くないと思うね
テキスト2イメージすればいいんだけど Azureでサービスも始まったしな
まぁMSが真っ当な会社かどうかといわれると過去のライバル潰し見てるから俺も返答に困るが(笑) >>953
i2iで他人の絵を読み込ませてほぼそのまま出力するバカのせいで勘違いされてるが
ぶっちゃけt2iのほうが制御不能だから良くないんですわ このオーネットのやつが実際にAI出力物として、
自前で用意した実在人物をAIイラスト化したものの場合は完全なる白な感じ?
絵柄吸い取られてる絵師が居るからグレー混じり? >>953
それは他人の絵を無駄でパクるのがダメ、というだけでしょ
実際の作業工程でも、t2iで絵ガチャした中から良さげな絵をベースに
t2iで細部を詰める、という流れはごく普通にあるわけで、i2iだから良いとか
悪いなんて話はないよ 技術板やんここ
なんでお気持ち勢沸いてんの
総合かとおもってたわ 現状グレーなので1%でも黒なら使っちゃダメと判断する人もいれば、
99%ホワイトなので使っていいと判断する人もいるという違い。 >>949
そのせいでオーネットが叩かれてるから、まともなところはあとに続こうという企業が出てこないんじゃない
そこらの絵師に頼んでも10万円もしないのに、企業イメージを下げたら10万円じゃ取り戻せないよ
なぜCMを打つのか考えてみ 中国が漢字の著作権を主張し出す可能性があるから漢字は使えないな
個人的には7%ぐらいはありうると思う >>962
著作権は生み出されてから50年でなくなる >>956
お気持ちグレー、法的ホワイト
簡単な話、最終的に権利侵害してないならいい
絵柄に権利はない
どんな作品を参考にしていい
作者名を騙って公開してるわけでもない
権利が生きてる既存の作品をそのまま複製しなければ、文句を言われる筋合いはない
でも学習元にされた絵師的には嫌な気持ちになる人もいるのでお気持ちグレー いや作者の死後50年か
そもそも言語や文字に著作権はない 一体どこらへんでオーネットが叩かれてるんですかね?
何見てんの? >>968
Twitterの検索の仕方ぐらいしってるなら見てみ AI使ってるだけで文句言うやつは居るからなww
何人かは叩いてるんじゃないのw 叩かれたらアウトてw
叩いたら何でもアウトにできるやんけw
技術畑は考え方が違うねえ StableDiffusionは個人が意図せず閲覧可能にしている or 盗撮されたような老若男女のポルノ画像を万一学習してたら、死亡するかもしれないのが心配。どこかの開発者が追加学習させた奴だよなきっと。 AI絵だからって晒し上げしてるやつらがおかしいんじゃないのか
別に違法な事なんにもしてないじゃん
それが広告として上手くいくかどうかは別問題でしょ >>969
見た上で言うてるんやけど
誰がオーネットの広告にAI絵使われてるって情報提示したと思ってんの AI絵を広告に使っていいか?なんてそれこそお気持ちスレでやれよ カプコンですらパクり侵害しとるご時世に、企業倫理に夢見すぎとちゃうかw
寧ろAI使った方がパクり訴訟の危険が減るから、積極的に使うようになるだろう AIで簡単に作れると認知されてるのに、今のところ名前のとおったところはオーネットしかつかってないあたりで答えは出てそうではある 現実問題として広告だけの話じゃ済まんしなぁ
海外アーティストのAI反対募金の本拠地gofundmeの告知動画に
deform使ったAI動画が使われるとかいうミラクルはなかなか見れんよな 広告費は何百、何千と万円とかけるのにAI絵でケチるわけないじゃんw
オーネットも物珍しさと話題性を狙って今回やったんだろうけど評判が良くないからなあ どうやら980次スレ立て係らしいけど>>1が自動アボーンされてテンプレコピペできないので>>985よろしこ 次スレはこれを再利用すればいいでしょ
【StableDiffusion】AI画像生成技術13【NovelAI】
https://mevius.5ch.net/test/read.cgi/cg/1673213503/
皆さんご要望のワッチョイあり
いきなり誰も書かなくなったら笑う じゃあ>1000までに誰も建てなかったら>983で。 クリエイターでありながらAIに否定的な人間はこの先生きのこれないよ
AIの自動選択や物体消去、超解像や自動切り抜きなども無断学習の上に成り立ってる 立てるのはいいけど技術的な話題に使ってくれよ
オーネットが広告にAI生成画像を使うことの是非なんて話題は雑談でやってくれよ本当に
あっちも人はいるから
【雑談】CG総合関連60【AI】
https://mevius.5ch.net/test/read.cgi/cg/1673490335/ そういうのを語る人らをワッチョイでNGぶっこめばええんや >>989
自治厨したいならせめてワッチョイつけろ禿 スレチの話題語る奴らをNGにしたい!まで言い出すんならワッチョイスレ使え。 このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 16日 6時間 23分 31秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。