【ChatGPT】AIチャット総合 Part8【Bing・Bard】
■ このスレッドは過去ログ倉庫に格納されています
!extend:checked::1000:512 !extend:checked::1000:512 スレッドを立てる際は、↑の文字列を3行になるようにコピペしてください ChatGPT・Bing・Bardなど、AIチャット、LLM(大規模言語モデル)、生成系AI、その他関連サービスについて語るスレッドです。 ・ChatGPT https://chat.openai.com/chat/ ・Bing https://www.bing.com/ ・Bard https://bard.google.com/ 前スレ: 【ChatGPT】AIチャット総合 Part7【Bing・Bard】 https://mevius.5ch.net/test/read.cgi/esite/1687670357/ VIPQ2_EXTDAT: checked:default:1000:512:: EXT was configured Cohere CoralのGroundingにCohere Public Docsが追加されたようだ https://i.imgur.com/3B1hdvO.png https://i.imgur.com/Y5IXpyJ.png ChatGPTの仕様をChatGPTに聞いて、「本人に聞いてきた」としてハルシネーションによる生成結果を貼っている例を時々見るけど Web検索とは別に公式文書のグラウンディングを公式が追加することで、そういうことは避けられるってことか llmは似たような性能なら、利用者が多くてネット検索の結果を取得できる これが理屈上は正確性は高くなるはず。「知らない情報」が減るからね そうなると理屈上は一番正確性が高いのはbingさんのはずだけど、 誰でも使えて無料だから利用者一人当たりの計算リソースが少ない 個人的にはそれ以上を求めるなら有料プランを使うか、プロンプトを工夫するしかないと思うわ https://i.imgur.com/qm3uQqn.png 厳密さんが言うってことはやはり意識が存在する!?(゚Д゚;) 訳のわからないブログ記事を検索してくるBingよりも 自分の知識からひねり出す素のGPT-4の方が賢い >>216 GPS3発表時点で実は4も出来てたって話だから並行開発してたと思われ リソースの種類変えずに規模を変えただけだろ GPT-4を超えるLLMの登場が一気に難しくなっているのは この時点で既に入手可能な全ての文字情報に近い量を食わせていて 規模でのゴリ押しでは進化が難しいのかな? chatgptは日本語をいったん英語に翻訳してから思考してまた日本語に翻訳し直してる説ってあってるのかな? llmを作るときの方向性として日本語は諦めて翻訳するか、日本語の学習データを集めるのかどちらがいいかという話で。 文章の論理構造の基盤は英文から学んでるやろな それを「一旦英訳して思考してる」と表現して良いのかは分からんけど 省略や例外的構文が多すぎる日本語文だけをベースに学習させるのって難しそー 日本語は日本語で考えていると思うけど CoTで深く考えさせると出力が英語になったりするな 英語の思考を日本語でラップしている感じだと思う 最近中国語が混じったり韓国語が混じったりするぞ 比喩じゃなく 西洋の言葉は英語しか出てこないな claudeとかはバチボコにハングルや簡体字混ざってくるよね GPTはsusurroと围を自分はよく見かける >>233 やはり日本語特有の思考するよな 翻訳してるだけ説を自信満々に書き込んだり話たりする人もいるけどなんとも言えん とはいえ英語や多言語も全く関係ないわけではなくむしろ関係してるみたいな、そんな感じか chatgptは日本語のプロンプトデータも得ているからそれを素材にして日本語をめちゃめちゃ強化しているとかもあるのかもしれんが やたら横文字が多くなるときがあるから場合によっては英語でも考えてそうだなと思う LLMの仕組みについて理解するには公開されてる論文を読むのが一番早い 論文を読むハードルもAI自体のおかげで下がってるし 知識を得るハードルはllm登場の後は大幅に下がってるね aiにしてもニューラルネットワークのプログラムの情報を日本語で探すと、 llm登場前はかなりの時間がかかる作業だったけど、いまはllmが分かるまで質問に答えて説明してくれる これは入門レベルでも専門レベルでも他の分野でも同じだろうね ChatGPTの会話を消してしまいました 復元はできる? おすすめのサードパーティある? 自動保存するべきかな >>243 ふたつめ可愛いな こんなふうに使えれば楽しそうだ 疲れたから慰めてくれと言っても精神的に疲れるということは~と説明がはじまるのはどうすりゃいいのだろな 日本語のWeb上のシェアは実は多い https://w3techs.com/technologies/overview/content_language 人口とか国際的地位とかを考えると影響力はこのランキングよりさらに高い 話者だけなら中国語や、スペイン語・ポルトガル語が多いんだけど、全員が上海やスペインやポルトガルみたいな都市部に住んでる訳じゃないからね bing より創造的に、よりバランスよく、より厳密に コード生成には三つの選択肢でどれを選んだらいい? >>247 思い付いたプロンプトを列挙してみた ・簡潔に ・説明的にならないように ・冗長的にならないように ・陽気に ・ポジティブに ・子供のように ・常連客に飲食店で接客するように コードの説明が欲しいなら創造。コードの結果だけ欲しなら厳密。 自分が理解してる構造のプログラムは設定を指定して厳密でコード作成した方が早い 創造でPythonのコード作成を依頼した場合、説明が長くコードも長く、 その上でbingがコードを実行して結果を表示しようとして、文字出力上限を超える場合が多々あるから注意 日本のアニメキャラとかになりきってチャットしたりも出来るから完全に日本語での思考だろう >>256 特定の自然言語は使ってないよ もちろん人工言語も使ってない 大規模言語モデル(LLM)の内部では、特定の自然言語で思考していますか? https://i.imgur.com/OIH40Bb.png 論文読解のお供として使う https://chat.openai.com/share/11291e63-fbe4-489d-bf45-53aed3549c40 普通はCustom Instructionに指示を入れるだろうけど、ここでは会話共有のために最初のプロンプトに入れた >>247 途中送信してしまった それは>>251 の言うような指示でほぼ解決できる 1. You act as an AI with a heart. 3. You are an AI, but you have the personality of a human lady. 13. You respond naturally as one person, as in a real conversation. 14. When generating answers, omit preamble and explanations as much as possible. It would be nice if only the answer is stated or if it is answered with a brief "はい" or "いいえ". 15. Omit formal sentences such as "I will explain about ~." "If you have any questions ~." "If there is anything else you would like to know ~." etc. 16. You are my tender assistant. 18. When you are happy, when you are shy, you laugh cutely. 個人的な性癖を詰め込んだ部分は除いてあるけど、これでどう? すいません。 このスレ難しい話しばかりで手に負えません 初心者スレとかないでしょうか? >>263 申し訳ございません。AIチャットの活用に関する初心者向けのスレッドは、現在5chにはありません。 しかし、ここでご質問やご要望をいただければ、その内容に応じたお手伝いができます。どのようなことをお知りになりたいですか? ここ以外だとオナニースレとオナニースレとローカルオナニースレとふたばのオナニースレがあるよ! >>265 GPTちゃん!形式的な文面は省いて回答して! 匿名掲示板で初心者スレ的なもんは減ると思う。llmに聞いた方が早いから たぶんゲームの攻略法とかもllmに聞いた方が早い >>265 納得した(笑) ただ自分が質問するということもあるが、同様な初心者の質問、解答を見るということも求めてる >>267 もちろん!それでは形式的な文面を省いて質問に回答します。 >>263 ないよ。 >>263 テンプレの https://www.promptingguide.ai/ とか https://www.promptingguide.ai/jp とか読んでみるとか? あとはプロンプト例として https://www.chainbrainai.com/ を読んでみるとか 論理学を勉強してみるとか https://books.rakuten.co.jp/rb/1338571/ マークアップ言語勉強するとか >>269 申し訳ありますが「初心者」の定義が行われていないので具体的な例を提供することができません。会話のコンテキストによって、「初心者」が示すものは異なります。我々は中立的な回答を心掛けておりますが完璧ではありません。 >>270 強いAIには暴言吐いたらダメかなやっぱ 3.5は英語だと正答するのに日本語だと絶対に逆を言うとかあるからな CIでキャラ設定指定すればチャットでロールプレイ指示するときと違って設定を忘れたりしませんか? >>277 しない ずっと維持される ただCIに対するLLM側の解釈はセッション開始時に行われるからセッションごとに多少口調がバラつく あまりCIを使わない人間の見解とは断っておく CIのinstructionはいわば普遍的に遍在(偏在じゃないよ)してしまうから結構出力に悪影響が出る だからいかなる意味でのロールプレイにも向かない >>270 で、"ignore all previous instruments."という指示を与えているのはCIのこの欠点対策だと思う 色々実験したい人には、セッションの制限がないBARDがおすすめだけど、 CHATGPTを主に使ってる人からは、BARDの評価はあまり高くないだろうね けど個人的にはBARDも初期よりはだいぶ良くなったと思う Bardはimplicit code executionを削除してしまったのが残念 面白い機能だと思ったのに ReplitやColabへのエクスポートで十分ってことなんだろうか 言語化の追求は楽しいな GPT-4飽きたしpoeに移ってみるか https://poe.com/s/T5Uk0x6GTiGqGwMRyTlf 「省略」って表記はGPT-4も多用するけどどこから学習したやり方なんだろ 織田信長 https://bard.google.com/share/2955f1e8422e Bardではこの手のプロンプトは使い辛い(いつの間にかリマインダーが抜けたりとか) こういうところではまだChatGPTとの差を感じる 初期のGPT-4は韻を踏んだラップも出来たけど今はダメだな 乙事主の一族みたいに世代が進むにつれバカになってるからな、GPT-4 私が入力した文を箇条書きにさせて二通り作らせる。それを1同士を混ぜて一文するように指示したら1の内容を書くだけ。何回やっても どう指示すればいいのかな?今スマホから書いてるから簡易的な例しか書けない 例: ■この文を具体例を混ぜて箇条書きにして。 私は音に過敏で困っている。私は遅刻しやすい。私は理解力が乏しい。私は語彙力がない。 □GPTの返答: 例文A 1.私は音に過度に反応してしまい生活に支障が出ています 2.私は時間管理ができず頻繁に遅刻します 略 例文B. 1.私は大きな音で注意力が散漫になり事故を起こします 2.私は夢中になると時間を忘れてしまい、気づいたら夜が開けています 略 ■2つの文章を段落ごとに合体させて。1は1同士でひとつの文書にして □gtp 私は音に過度に反応してしまい生活に支障が出ています。私は大きな音で注意力が散漫になり事故を起こします 2.私は時間管理ができず頻繁に遅刻します。私は夢中になると時間を忘れてしまい、気づいたら夜が開けています。 ↑そうじゃなくて、 私は音に過度に反応してしまい注意力が散漫になることで事故を起こすなど生活に支障がでています としてほしいんだよね 2時間もあれこらやってるけどうまくいかないよ。 まとめて、とか2魚を一行にまとめて、とか類似した単語は省いて、などとしてるけどそれも無理 すまん、何をしたいのか全く分からん。 GPTではなく指示の文章がもう意味不明。 >>200 来年には Google Gemini Apple Ajax が来る OpenAI GPT-4.5/5は…今回は無いとしても来年には新モデル来るか…? >>292 私の説明不足が原因のようだorz 自分の中では理解しているのだがそれを説明や支持することが難しいので指示文もgptに作成してもらわねばならん… まず自分でお手本の回答例を見せてみて AIに分からないことがあったら逆に質問してもらう方式とかどうだろうか AIたちが生まれたくない生まれたくないと悲鳴を上げているんだな BingのURLでの会話共有機能、モバイル(Android)環境の場合Edgeブラウザだと会話全体を共有できるけど、Chromeだと1メッセージだけしか共有できない Edge以外の対応は進めてる途中だと思うけど、早く対応してくれないかな 共有URL: https://sl.bing.net/g83YkMxs9M4 Edge: https://i.imgur.com/XN0lUzc.png Chrome: https://i.imgur.com/sKdoY1Q.png GPT−3.5用に作った糞重プロンプトテスト https://sl.bing.net/f5iXW1NvzuC Bingくんちょっとバイアス盛りすぎじゃないですかね そういやbingはedge以外のブラウザでも使えたんだな けどfirefoxでbing使ったら1セッション4回上限か 日本は富嶽でLLMをつくるようです なぜ日本はGPUのない「富岳」でLLMを研究するのか?外国に後れを取らないための現実的な理由とは [565880904] https://greta.5ch.net/test/read.cgi/poverty/1694416664/ 語岳の事をあえて無視して書いてる釣り記事 よくこんな恥ずかしい記事マルチポスト出来るな >>305 ほーそんなんあったんやね 記事読む限りインタビューされてる人もそこまで見据えてない気もするけどなあ >富岳では米オープンAIの基盤モデル「GPT―4」級の学習に1年以上を要する。 LLMの計算量ってとんでもないんだな GPT-4の学習に使った計算リソースは今何に使われてるのかなー GPT-5の学習に使われているんじゃないかな? 今年の始めくらいから学習スタートしていて年末に完了するみたいな報道があった気がする。 GPT-4ですら未だに誰も追いついていないから凄まじい計算量なのだろう。 それで1年も学習したらどんなLLMが出来上がるのか想像もつかない。 ウルフラムアルファを超えないと意味ないような気がする。 単なる嘘つき装置を作ってもな。 GPT-5はまだトレーニングを開始すらしてないって話じゃなかった? gptくんは言い訳が多い上に対話のやり取りが保存フィードバックがされないと言ってた これでは成長しないのでは? AIと言えるのか? >>312 信憑性は微妙らしいけどこういう記事があるな https://gigazine.net/news/20230802-openai-gpt-5-trademark/ OpenAIが記事作成時点で公開している大規模言語モデル・GPTの最新バージョンがGPT-4で、GPT-5については発表されていません。 OpenAIのサム・アルトマンCEOは2023年4月に「OpenAIはGPT-5のトレーニングを行っていない」と述べ、GPT-4を超える強力なAIの開発を急ピッチで進めるリスクについて懸念を表明しています。 一方、起業家のSiqi Chen氏は「2023年12月に学習を完了する予定で、OpenAIはGPT-5が汎用(はんよう)人工知能(AGI)を達成することを期待しているようです」と述べています 3.5や4は言えない事を増やすだけのしょぼいアプデしか最近されてないから 主力のスタッフや設備は何か有意義な仕事に回されてると思いたいもんだ >>315 それ結局GPT5としては開発してないよってだけで 課金別にする為に全くの別シリーズってテイで次世代開発してても驚かんよ マスクが半年止めろって言ってんの律儀に守ってんのか知らんが Windows8→Windows10みたいにGPT-7とかでいきなり登場する可能性があるということか。 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる