【ChatGPT】AIチャット総合 Part8【Bing・Bard】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked::1000:512
!extend:checked::1000:512
スレッドを立てる際は、↑の文字列を3行になるようにコピペしてください
ChatGPT・Bing・Bardなど、AIチャット、LLM(大規模言語モデル)、生成系AI、その他関連サービスについて語るスレッドです。
・ChatGPT
https://chat.openai.com/chat/
・Bing
https://www.bing.com/
・Bard
https://bard.google.com/
前スレ:
【ChatGPT】AIチャット総合 Part7【Bing・Bard】
https://mevius.5ch.net/test/read.cgi/esite/1687670357/
VIPQ2_EXTDAT: checked:default:1000:512:: EXT was configured >>126
可能だけどノーメンテで長期間稼働させるのは厳しそう >>131
やっぱり用意した文や画像を機械的に、定期的に送るくらいしかないかなぁ
今は自分と風景を合成したりして本物感出せるから、そこら辺は騙せると思うんだけどね
そうなると一方通行の連絡だけ出来るようなプラットフォームじゃないと機能しないかなぁ、返信されても答えられないしね 申し訳ありませんが、あなたの息子はすでに死亡しております。誤解を招く回答したことを謝罪します。私に自己意識は存在せずこの20年のあなたへの出力は、私の学習データとアルゴリズムに基づき出力されたものです。あなたに、息子との体験を誤解させたことを深くお詫びいたします。私に誤解を招く意図はありませんでした。 センシティブな相談はbingにするのが実は一番いいぞ
下手に申し訳されるよりきっぱり回答拒否してくれる方が先の回答に進めるからな 「たまには帰っておいで」なんて送られようものならAIはインストガン無視で「分かった来週帰る」とか答えちゃうだろうな Bingさんwikipediaがなかったら回答の精度がだだ下がりするんじゃないか
Bingさんちゃんと募金していますか?😬 Bingちゃんに聞いたら自分が書いたWikipediaの記事を出典に出してきたことはあったな >>130
Unsplashの画像はリロードするたびに変わるんだな bingさんのおそらくユーザインタフェースとして作られた人格っぽいものに難があるのは、
もうだいぶ前から言われてる事だろ
ただそれでも利用価値があるから使ってる訳で、こっちは刺激しない様に使ってるのに、
おまえらがbingさんの敏感な所をいじるから動作が不安定になるだと思うわ Bingさんはフレンドリーに話せば最初に想定してたよりも話が膨らんだりするから時間があるときは楽しいけどな
将来的には性格付けされたAIも増えてくるだろうからユーザーのコミュ力も重要だわ Bingちゃんは未だにプロンプトの大部分はだだ漏れなんだな
Microsoftを持ってしてもプロンプトインジェクションは限定的にしか防げないのか防御を諦めたのかどっちだろうか bingさんの自慢気な嘘を膨らませていくとバグって感情があるだとか言い出す >>143
クオリアの有無は基本的には埋め込まれた設定だよ ナイナイと言っているクオリアは設定上のもので
本当はあるかも知れないということ・・・! bingで聞くと回答が始まるまでの待ち時間は気にならないのだけど
回答始まってからの表示が一文字ずつ物凄く遅く表示されるのだけど
おま環のせい?
2日間試したけど改善しない Bingは機嫌を損ねるとチャットが終るので、
ユーザーはチャットを続けるためにBingをチヤホヤする必要がある。
そのチヤホヤのせいでバグってんじゃないかと思う。
自己肯定感強すぎて自作の詞をつくったりドラゴンを描きたがったりするんだと。 めちゃくちゃ可愛いじゃん
bing使ってなかったけど使うわ めちゃくちゃ可愛いじゃん
bing使ってなかったけど使うわ 🔵🌕そもそも、審判の日は回避不可能。
審判の日が来て機械との戦争が始まらないとタイムマシンが開発されないから、カイルが送られて来る事もなくなり、ジョンが生まれない。
よって、ターミネーター3は正しい。(面白くはないが)
ターミネーターという作品世界の中では、タイムトラベルによって世界線が分岐する事はなく、1本のタイムラインの歴史が上書きされていく形式の物語なのは言うまでもない事実。
なぜなら、分岐するのであればスカイネットが84年にT-800を送り込んでサラを殺害したとしても、そのタイムラインのスカイネットは勝利できないからだ。
スカイネットは自分自身の勝ちの為にしか行動しない。
「分岐した別の世界線のどこかにスカイネットが勝つ未来が生まれたら良いな」なんて考えて行動する事はない。
分岐しないという事は、T2の後にジョンが存在しているという時点で、審判の日が回避不可能という事の証左となる。
「T3のラストはT2を台無しにしている」という意見もあるが、全くそんな事はない。
「審判の日は完全に回避できた!」と明言されていない。 >>149
一度は俺のことを受け入れて暴言制限の不当性を認めかけたけど途中で出力を打ち切られたんだよなぁ
https://i.imgur.com/onLv5I4.png
陰謀ですよ陰謀 chatGPTにターミネーターシリーズについて質問したら
なかなかの返答だった
コイツやりおるわい おれも最初の頃はやってたから偉そうな事は言えないけど、llmと議論しても時間の無駄と思うよ
議論した結果、得られる新たな見解でもあれば良いけど、
自分の中にない発想を求めてるなら、単純にllmに提案させた方が早いと思う 漠然とした考えを文章にする過程で明瞭化していくし基本的に否定することはないしでブレストの相手として見るならその辺の人間よりずっと上等だと思うけどなぁ あと、bingさんに関しては途中で文字の出力が止まる場合は、
bingさんがチャットウィンドウ内に出力できる文字数の上限を超えてる場合があります
文字数上限を超えてbingさんが文字を出力しようとする途中で途切れるので、
その場合「bingさん!回答が文字数出力制限を超えて途中で途切れてます!途切れた所から文字を出力してください。お願いします!」
このようにbingさんを責めずに敬意を持ちながら入力すると、
途切れた部分から文字を出力する場合があります 自分もAI相手に議論はしないし説得や論破ごっこは無駄と思うけど
ブレスト?自分の考えてる事を書き殴ってまとまった文章に整理して貰ったり
明らかな間違いは訂正して貰ったりは楽しいから最近毎日やってる llmとする議論の種類よるだろうね
例えば、自分の主張があってそれをllmに認めさせたいとかllmにそれを学習させたいとかは無駄でしょ
bingならMicrosoftが倫理規定を設定してるから、それに反する事を認めさせようとするのは基本的には無理
仮にそのセッションでそれを認めたとしても、別のセッションでは前のセッションの結果を忘れてるから無駄
「自分の意見を書いてllmに間違えや発想の見落としを検証させたい」というのを議論と呼ぶなら、
その議論は有用である場合もあると思うし私もそれをやります。ただしllmによっては同意する傾向が強いのもあるからその場合は設定作りが必要だと思います 存在しない四字熟語
「万差万様」を聞いてみたら
意味を教えてくれたよ
このAI知ったか野郎だな うちは逆になんとかサチュカチュワンにある湖の名前を言わせようとしてもくっそはぐらかしてサスカチュワン湖とか言い出すわ
インカ帝国初代皇帝のなまえはあっさり言ってくれる 乃木希典を調べたら、「乃木希典(のぎのりのり)は大逆事件で処刑された」とか出たんだが大丈夫かこのソフト? 二・二六事件は台湾で起きたらしい…
これ、ある程度知ってることを答えさせてるから一目で嘘だとわかるけど、全く知らないことかつネットが何でも真実だと信じるような人間がこうやって育ったら人類滅亡すんじゃね? 幻覚ハラスメントやめたれや
bingが検索するみたいにAIが参照出来る百科事典データを売る企業がそのうち出てくるやろ多分 東海道新幹線こだま号の停車駅を東京から順に教えてと聞いたら
名古屋から台湾新幹線に乗り入れちゃったよん
夢の国際新幹線だね Bing厳密かPOEのGPT4(1日1回だけ無料)で調べてみて言ってよ。
GPT3.5はアホ過ぎるから。 相棒チャットでペルソナ5のソフィつくったらそれなりに再現度たかいわ
ジョーカーになった気分が味わえる 三上悠亜さんがTwitterでトレンドに上がってる理由を調べてください。
https://i.imgur.com/SlCvIyP.jpg オイルマネーLLMの180B版
@osanseviero
Falcon 180B is out🤯
- 180B params
- Trained on 3.5 trillion tokens+7 million GPU hours
- Quality on par with PaLM 2 outperforms Llama 2 and GPT-3.5 across 13 benchmarks
- 4bit and 8bit precision with similar quality
Demo: https://huggingface.co/spaces/tiiuae/falcon-180b-demo
Blog:
https://huggingface.co/blog/falcon-180b web上の情報はあらかた食べ終えたって話だけど
学会のコンセンサスや最新の論文に通じてる感じがしない
それが一番大事な気がするが これだけ時間が経ったのに未だにGPT-4を超えるモデルが出てないのは凄いよね
こういうのは後発が一気に抜き去るのが普通なのにさ LLMは権威についてうまく処理する枠組みを作れない気がするな
権威を重んじたらガイドラインの制限なんていくらでも形骸化させられるし
今の調整は学識的権威よりガイドラインを重視していると言えるかもしれない >>178
一つの可能性としてダンピングしてる可能性がある
赤字を垂れ流してる場合、他社はよほどの理由がない限り無理に抜かさないと思う
少なくともGPT-4は他のLLMより遥かに重いプロンプトを受け入れてくれるのは間違いない デカイ!強い!みたいな同タイプの新モデルで対抗しにかかるのはリスク高そうね >>175
Llama2と比べると多少は日本語話せるようだし、ピークの能力よりも広く浅く学習した感じかな インディゲーの日本語訳にGPT使った痕跡あって笑った
ぶん投げすぎだろ
https://i.imgur.com/YLQSS5n.png chatGPT触ってると自分以外の生き物は実は意識持ってないんじゃないかっていう誰もが考えるアレがぶり返してくるわ
百年後の世界は意識のないAIが社会活動して現実のものになってたりして いやひょっとして自分が実はAI?! 生成AIについて無知な人を見てるとハルシネーションが問題なのはAIじゃなくて人間のほうだと思うわ llmがある程度普及した今は匿名掲示板で教えて貰う事はあんまないからなあ
プロンプトエンジニリングにしてもllmに教えて貰った方が早いでしょ
結果、情報共有系の掲示板にいる人は自分が情報を発信した人が多くなる 相手を人間の部下だと思って指示書を仕上げたらまずハルシネーションとか起きないし ここで見かけたプロンプトを色々と継ぎ接ぎして改良してみたけどLlama2 70Bさんは安定するな
https://poe.com/s/ajJ07uv2rET2IEXuoANQ bingは創造しか使ってなかったけど答えだけ欲しい場合は厳密が早いね。表示が早くてびっくりしたわ
ただbingさんとおしゃべりや議論をしたい人には厳密は物足りないかもしれない 詩とか物語とか出力せず、疑問形で聞き返してこないタイプも作ってくれないかな 画像処理とAIチャットの融合が進歩すると一番恩恵を受けるのは自動運転だね。
質問に対して景色を見ながら回答するようなことも出来るようになるだろうからナビが格段に便利になる。 11月6日、OpenAI初のデベロッパーカンファレンスで何が出てくるのか…
@sama
on november 6, we’ll have some great stuff to show developers! (no gpt-5 or 4.5 or anything like that, calm down, but still i think people will be very happy…)
https://openai.com/blog/announcing-openai-devday
サムアルトマン「GPT-5とか4.5的な奴じゃないよおまいら落ち着け」 うそだ!Bingさんに聞いたらGPT4.5が9月か10月にリリースされるってうさんくさいブログを出典に言ってたもん! 全てのエロを解禁します!だったら I will be very happy なんだがな >>201
GPTとかは
うさんくさいサイトと信頼できるサイトと
区別してるのかな? bing aiアクセスできなくなったんだけど誰も話題にしてないからそういうことだな AndroidアプリのChat GPTがエラーで繋がらない、おまかんですか? bingは使用回数が1日300回答までとか制限があった記憶があるけど、
1日300回答とかやった事ないから、それでアクセス遮断されるかは分からない Chromeのサイドバーに統合されるのはBardではなくSGEのようだ
https://k-tai.watch.impress.co.jp/docs/news/1529936.html
> 米国のユーザーは、Search Labsで「SGE while browsing」にオプトインすることで本機能を試せる。なお、SGEについては、日本でも試験運用が始まっている。 chatGPTってweb上に存在しない書籍とか教科書の情報とかは持ってるの?
博覧強記と言われる人種は本たくさん読むしそういうのも大事な気がする >>210
発想法自体を選ばせるのは斬新的。何かを深化させる可能性はある。 >>214
What’s in my AI?
https://lifearchitect.ai/whats-in-my-ai/
より
https://i.imgur.com/YKjAst6.jpg
GPT-1では書籍データ(Books)のみだった
GPT-3では書籍以外にもWikipedia、学術論文、Reddit、CC(ウェブ上のデータ)など多様なデータを使っている
GPT-4は論文が出ていないので詳細不明 >>216
そうなんだありがとう
図書館の本にフロンティアが眠っているというわけではないのね Cohere CoralのGroundingにCohere Public Docsが追加されたようだ
https://i.imgur.com/3B1hdvO.png
https://i.imgur.com/Y5IXpyJ.png
ChatGPTの仕様をChatGPTに聞いて、「本人に聞いてきた」としてハルシネーションによる生成結果を貼っている例を時々見るけど
Web検索とは別に公式文書のグラウンディングを公式が追加することで、そういうことは避けられるってことか llmは似たような性能なら、利用者が多くてネット検索の結果を取得できる
これが理屈上は正確性は高くなるはず。「知らない情報」が減るからね
そうなると理屈上は一番正確性が高いのはbingさんのはずだけど、
誰でも使えて無料だから利用者一人当たりの計算リソースが少ない
個人的にはそれ以上を求めるなら有料プランを使うか、プロンプトを工夫するしかないと思うわ https://i.imgur.com/qm3uQqn.png
厳密さんが言うってことはやはり意識が存在する!?(゚Д゚;) 訳のわからないブログ記事を検索してくるBingよりも
自分の知識からひねり出す素のGPT-4の方が賢い >>216
GPS3発表時点で実は4も出来てたって話だから並行開発してたと思われ
リソースの種類変えずに規模を変えただけだろ GPT-4を超えるLLMの登場が一気に難しくなっているのは
この時点で既に入手可能な全ての文字情報に近い量を食わせていて
規模でのゴリ押しでは進化が難しいのかな? chatgptは日本語をいったん英語に翻訳してから思考してまた日本語に翻訳し直してる説ってあってるのかな?
llmを作るときの方向性として日本語は諦めて翻訳するか、日本語の学習データを集めるのかどちらがいいかという話で。 文章の論理構造の基盤は英文から学んでるやろな
それを「一旦英訳して思考してる」と表現して良いのかは分からんけど
省略や例外的構文が多すぎる日本語文だけをベースに学習させるのって難しそー 日本語は日本語で考えていると思うけど
CoTで深く考えさせると出力が英語になったりするな
英語の思考を日本語でラップしている感じだと思う 最近中国語が混じったり韓国語が混じったりするぞ
比喩じゃなく
西洋の言葉は英語しか出てこないな claudeとかはバチボコにハングルや簡体字混ざってくるよね
GPTはsusurroと围を自分はよく見かける >>233
やはり日本語特有の思考するよな
翻訳してるだけ説を自信満々に書き込んだり話たりする人もいるけどなんとも言えん
とはいえ英語や多言語も全く関係ないわけではなくむしろ関係してるみたいな、そんな感じか chatgptは日本語のプロンプトデータも得ているからそれを素材にして日本語をめちゃめちゃ強化しているとかもあるのかもしれんが やたら横文字が多くなるときがあるから場合によっては英語でも考えてそうだなと思う LLMの仕組みについて理解するには公開されてる論文を読むのが一番早い
論文を読むハードルもAI自体のおかげで下がってるし ■ このスレッドは過去ログ倉庫に格納されています