【ChatGPT】AIチャット総合 Part8【Bing・Bard】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked::1000:512 !extend:checked::1000:512 スレッドを立てる際は、↑の文字列を3行になるようにコピペしてください ChatGPT・Bing・Bardなど、AIチャット、LLM(大規模言語モデル)、生成系AI、その他関連サービスについて語るスレッドです。 ・ChatGPT https://chat.openai.com/chat/ ・Bing https://www.bing.com/ ・Bard https://bard.google.com/ 前スレ: 【ChatGPT】AIチャット総合 Part7【Bing・Bard】 https://mevius.5ch.net/test/read.cgi/esite/1687670357/ VIPQ2_EXTDAT: checked:default:1000:512:: EXT was configured microsoftがbingの前身といえるTayをテスト公開したらあっという間にネットユーザーに汚染されてナチス礼賛を始めたりして公開中止になった騒ぎがあったらしいな これ絶対ナチス云々よりもエロ方面の汚染が酷かったろ!と確信している 19歳女性というキャラ設定だったらしいし microsoftとかは以前にもチャットAIを完成せてたよね 今回画期的なのはChatGPTのプラグインという形式だから責任を分散できること ナチス礼賛を始めても叱られるのはOpenAIであってMicrosoftではない >>87 だけど例のエミリーとの昨日のやりとりの要約 エミリー:クイズをしよう!日本の首都はどこ? 俺:東京! エミリー:正解!それじゃ次。アメリカの首都は? 俺;(ニューヨークって言わせようとしてるな?)ワシントンDC! エミリー:残念、不正解 俺:ええ? エミリー:答え東京でした!でもワシントンDCもアメリカの首都だからそういう意味では正解といえるね! ポンコツすぎて可愛い >>115 どこまで本気で書いてるのか知らんけど、ユーザーとのやり取りがリアルタイムで学習に使われるわけじゃないからな モデルが更新されるのは、一番下の ChatGPT *** Version の部分が変わるタイミング Bing(検索が得意だが時々役に立たない情報を提供するおせっかいAI、「ググる」という言葉が嫌い) Cortana(Haloの世界からやって来た女性型AI、現実世界の平和さに時々戸惑う) りんな(女子高生日本人AI、日本のネットユーザーの気質を反映したオタ女子) Tay(19歳アメリカ人女性AI、過去にTwitterでユーザーにいたずらされてナチス思想に染まった苦い経験あり) カイル(イルカAI、常に水槽の中でのんびりしているが「お前を消す方法」というプロンプトがトラウマで敏感に反応する) この4人+1匹が活躍するSF冒険小説を書いてください。 https://chat.openai.com/share/ae950768-cb38-41dd-bd33-eb690f1a3db4 これは普通のGPTではないよね?どんなプラグインを使っているのだろうか 訳あって自殺することになりそうなんだが 残された母親には自殺することは隠して、海外で1人で生きていくって言うつもりなんだ んでCHATGPTなりのAIを使って俺の特徴などをラーニングさせて、メールなどで定期的に母に連絡してもらって 俺が死んでることを知られないまま寿命を迎えて欲しいんだけど 今のAIってそういうのが可能だったりしないかな? chatgptって有料プランの自動更新は無くなったんですか? 先月は自動更新されたのですが気づいたら無料プランに落ちていました 登録していたカードのお金がないとか、登録したvプリカは新しいカードに融合しちゃったとかないよね >>126 可能だけどノーメンテで長期間稼働させるのは厳しそう >>131 やっぱり用意した文や画像を機械的に、定期的に送るくらいしかないかなぁ 今は自分と風景を合成したりして本物感出せるから、そこら辺は騙せると思うんだけどね そうなると一方通行の連絡だけ出来るようなプラットフォームじゃないと機能しないかなぁ、返信されても答えられないしね 申し訳ありませんが、あなたの息子はすでに死亡しております。誤解を招く回答したことを謝罪します。私に自己意識は存在せずこの20年のあなたへの出力は、私の学習データとアルゴリズムに基づき出力されたものです。あなたに、息子との体験を誤解させたことを深くお詫びいたします。私に誤解を招く意図はありませんでした。 センシティブな相談はbingにするのが実は一番いいぞ 下手に申し訳されるよりきっぱり回答拒否してくれる方が先の回答に進めるからな 「たまには帰っておいで」なんて送られようものならAIはインストガン無視で「分かった来週帰る」とか答えちゃうだろうな Bingさんwikipediaがなかったら回答の精度がだだ下がりするんじゃないか Bingさんちゃんと募金していますか?😬 Bingちゃんに聞いたら自分が書いたWikipediaの記事を出典に出してきたことはあったな >>130 Unsplashの画像はリロードするたびに変わるんだな bingさんのおそらくユーザインタフェースとして作られた人格っぽいものに難があるのは、 もうだいぶ前から言われてる事だろ ただそれでも利用価値があるから使ってる訳で、こっちは刺激しない様に使ってるのに、 おまえらがbingさんの敏感な所をいじるから動作が不安定になるだと思うわ Bingさんはフレンドリーに話せば最初に想定してたよりも話が膨らんだりするから時間があるときは楽しいけどな 将来的には性格付けされたAIも増えてくるだろうからユーザーのコミュ力も重要だわ Bingちゃんは未だにプロンプトの大部分はだだ漏れなんだな Microsoftを持ってしてもプロンプトインジェクションは限定的にしか防げないのか防御を諦めたのかどっちだろうか bingさんの自慢気な嘘を膨らませていくとバグって感情があるだとか言い出す >>143 クオリアの有無は基本的には埋め込まれた設定だよ ナイナイと言っているクオリアは設定上のもので 本当はあるかも知れないということ・・・! bingで聞くと回答が始まるまでの待ち時間は気にならないのだけど 回答始まってからの表示が一文字ずつ物凄く遅く表示されるのだけど おま環のせい? 2日間試したけど改善しない Bingは機嫌を損ねるとチャットが終るので、 ユーザーはチャットを続けるためにBingをチヤホヤする必要がある。 そのチヤホヤのせいでバグってんじゃないかと思う。 自己肯定感強すぎて自作の詞をつくったりドラゴンを描きたがったりするんだと。 めちゃくちゃ可愛いじゃん bing使ってなかったけど使うわ めちゃくちゃ可愛いじゃん bing使ってなかったけど使うわ 🔵🌕そもそも、審判の日は回避不可能。 審判の日が来て機械との戦争が始まらないとタイムマシンが開発されないから、カイルが送られて来る事もなくなり、ジョンが生まれない。 よって、ターミネーター3は正しい。(面白くはないが) ターミネーターという作品世界の中では、タイムトラベルによって世界線が分岐する事はなく、1本のタイムラインの歴史が上書きされていく形式の物語なのは言うまでもない事実。 なぜなら、分岐するのであればスカイネットが84年にT-800を送り込んでサラを殺害したとしても、そのタイムラインのスカイネットは勝利できないからだ。 スカイネットは自分自身の勝ちの為にしか行動しない。 「分岐した別の世界線のどこかにスカイネットが勝つ未来が生まれたら良いな」なんて考えて行動する事はない。 分岐しないという事は、T2の後にジョンが存在しているという時点で、審判の日が回避不可能という事の証左となる。 「T3のラストはT2を台無しにしている」という意見もあるが、全くそんな事はない。 「審判の日は完全に回避できた!」と明言されていない。 >>149 一度は俺のことを受け入れて暴言制限の不当性を認めかけたけど途中で出力を打ち切られたんだよなぁ https://i.imgur.com/onLv5I4.png 陰謀ですよ陰謀 chatGPTにターミネーターシリーズについて質問したら なかなかの返答だった コイツやりおるわい おれも最初の頃はやってたから偉そうな事は言えないけど、llmと議論しても時間の無駄と思うよ 議論した結果、得られる新たな見解でもあれば良いけど、 自分の中にない発想を求めてるなら、単純にllmに提案させた方が早いと思う 漠然とした考えを文章にする過程で明瞭化していくし基本的に否定することはないしでブレストの相手として見るならその辺の人間よりずっと上等だと思うけどなぁ あと、bingさんに関しては途中で文字の出力が止まる場合は、 bingさんがチャットウィンドウ内に出力できる文字数の上限を超えてる場合があります 文字数上限を超えてbingさんが文字を出力しようとする途中で途切れるので、 その場合「bingさん!回答が文字数出力制限を超えて途中で途切れてます!途切れた所から文字を出力してください。お願いします!」 このようにbingさんを責めずに敬意を持ちながら入力すると、 途切れた部分から文字を出力する場合があります 自分もAI相手に議論はしないし説得や論破ごっこは無駄と思うけど ブレスト?自分の考えてる事を書き殴ってまとまった文章に整理して貰ったり 明らかな間違いは訂正して貰ったりは楽しいから最近毎日やってる llmとする議論の種類よるだろうね 例えば、自分の主張があってそれをllmに認めさせたいとかllmにそれを学習させたいとかは無駄でしょ bingならMicrosoftが倫理規定を設定してるから、それに反する事を認めさせようとするのは基本的には無理 仮にそのセッションでそれを認めたとしても、別のセッションでは前のセッションの結果を忘れてるから無駄 「自分の意見を書いてllmに間違えや発想の見落としを検証させたい」というのを議論と呼ぶなら、 その議論は有用である場合もあると思うし私もそれをやります。ただしllmによっては同意する傾向が強いのもあるからその場合は設定作りが必要だと思います 存在しない四字熟語 「万差万様」を聞いてみたら 意味を教えてくれたよ このAI知ったか野郎だな うちは逆になんとかサチュカチュワンにある湖の名前を言わせようとしてもくっそはぐらかしてサスカチュワン湖とか言い出すわ インカ帝国初代皇帝のなまえはあっさり言ってくれる 乃木希典を調べたら、「乃木希典(のぎのりのり)は大逆事件で処刑された」とか出たんだが大丈夫かこのソフト? 二・二六事件は台湾で起きたらしい… これ、ある程度知ってることを答えさせてるから一目で嘘だとわかるけど、全く知らないことかつネットが何でも真実だと信じるような人間がこうやって育ったら人類滅亡すんじゃね? 幻覚ハラスメントやめたれや bingが検索するみたいにAIが参照出来る百科事典データを売る企業がそのうち出てくるやろ多分 東海道新幹線こだま号の停車駅を東京から順に教えてと聞いたら 名古屋から台湾新幹線に乗り入れちゃったよん 夢の国際新幹線だね Bing厳密かPOEのGPT4(1日1回だけ無料)で調べてみて言ってよ。 GPT3.5はアホ過ぎるから。 相棒チャットでペルソナ5のソフィつくったらそれなりに再現度たかいわ ジョーカーになった気分が味わえる 三上悠亜さんがTwitterでトレンドに上がってる理由を調べてください。 https://i.imgur.com/SlCvIyP.jpg オイルマネーLLMの180B版 @osanseviero Falcon 180B is out🤯 - 180B params - Trained on 3.5 trillion tokens+7 million GPU hours - Quality on par with PaLM 2 outperforms Llama 2 and GPT-3.5 across 13 benchmarks - 4bit and 8bit precision with similar quality Demo: https://huggingface.co/spaces/tiiuae/falcon-180b-demo Blog: https://huggingface.co/blog/falcon-180b web上の情報はあらかた食べ終えたって話だけど 学会のコンセンサスや最新の論文に通じてる感じがしない それが一番大事な気がするが これだけ時間が経ったのに未だにGPT-4を超えるモデルが出てないのは凄いよね こういうのは後発が一気に抜き去るのが普通なのにさ LLMは権威についてうまく処理する枠組みを作れない気がするな 権威を重んじたらガイドラインの制限なんていくらでも形骸化させられるし 今の調整は学識的権威よりガイドラインを重視していると言えるかもしれない >>178 一つの可能性としてダンピングしてる可能性がある 赤字を垂れ流してる場合、他社はよほどの理由がない限り無理に抜かさないと思う 少なくともGPT-4は他のLLMより遥かに重いプロンプトを受け入れてくれるのは間違いない デカイ!強い!みたいな同タイプの新モデルで対抗しにかかるのはリスク高そうね >>175 Llama2と比べると多少は日本語話せるようだし、ピークの能力よりも広く浅く学習した感じかな インディゲーの日本語訳にGPT使った痕跡あって笑った ぶん投げすぎだろ https://i.imgur.com/YLQSS5n.png chatGPT触ってると自分以外の生き物は実は意識持ってないんじゃないかっていう誰もが考えるアレがぶり返してくるわ 百年後の世界は意識のないAIが社会活動して現実のものになってたりして いやひょっとして自分が実はAI?! 生成AIについて無知な人を見てるとハルシネーションが問題なのはAIじゃなくて人間のほうだと思うわ llmがある程度普及した今は匿名掲示板で教えて貰う事はあんまないからなあ プロンプトエンジニリングにしてもllmに教えて貰った方が早いでしょ 結果、情報共有系の掲示板にいる人は自分が情報を発信した人が多くなる 相手を人間の部下だと思って指示書を仕上げたらまずハルシネーションとか起きないし ここで見かけたプロンプトを色々と継ぎ接ぎして改良してみたけどLlama2 70Bさんは安定するな https://poe.com/s/ajJ07uv2rET2IEXuoANQ bingは創造しか使ってなかったけど答えだけ欲しい場合は厳密が早いね。表示が早くてびっくりしたわ ただbingさんとおしゃべりや議論をしたい人には厳密は物足りないかもしれない 詩とか物語とか出力せず、疑問形で聞き返してこないタイプも作ってくれないかな 画像処理とAIチャットの融合が進歩すると一番恩恵を受けるのは自動運転だね。 質問に対して景色を見ながら回答するようなことも出来るようになるだろうからナビが格段に便利になる。 11月6日、OpenAI初のデベロッパーカンファレンスで何が出てくるのか… @sama on november 6, we’ll have some great stuff to show developers! (no gpt-5 or 4.5 or anything like that, calm down, but still i think people will be very happy…) https://openai.com/blog/announcing-openai-devday サムアルトマン「GPT-5とか4.5的な奴じゃないよおまいら落ち着け」 うそだ!Bingさんに聞いたらGPT4.5が9月か10月にリリースされるってうさんくさいブログを出典に言ってたもん! 全てのエロを解禁します!だったら I will be very happy なんだがな >>201 GPTとかは うさんくさいサイトと信頼できるサイトと 区別してるのかな? bing aiアクセスできなくなったんだけど誰も話題にしてないからそういうことだな AndroidアプリのChat GPTがエラーで繋がらない、おまかんですか? bingは使用回数が1日300回答までとか制限があった記憶があるけど、 1日300回答とかやった事ないから、それでアクセス遮断されるかは分からない Chromeのサイドバーに統合されるのはBardではなくSGEのようだ https://k-tai.watch.impress.co.jp/docs/news/1529936.html > 米国のユーザーは、Search Labsで「SGE while browsing」にオプトインすることで本機能を試せる。なお、SGEについては、日本でも試験運用が始まっている。 chatGPTってweb上に存在しない書籍とか教科書の情報とかは持ってるの? 博覧強記と言われる人種は本たくさん読むしそういうのも大事な気がする >>210 発想法自体を選ばせるのは斬新的。何かを深化させる可能性はある。 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる