【ChatGPT】AIチャット総合 Part7【Bing・Bard】
レス数が900を超えています。1000を超えると表示できなくなるよ。
!extend:checked::1000:512
!extend:checked::1000:512
スレッドを立てる際は、↑の文字列を3行になるようにコピペしてください
ChatGPT・Bing・Bardなど、AIチャット、LLM(大規模言語モデル)、生成系AI、その他関連サービスについて語るスレッドです。
・ChatGPT
https://chat.openai.com/chat/
・Bing
https://www.bing.com/
・Bard
https://bard.google.com/
前スレ:
【ChatGPT】AIチャット総合 Part6【Bing・Bard】
https://mevius.5ch.net/test/read.cgi/esite/1684899205/
VIPQ2_EXTDAT: checked:default:1000:512:: EXT was configured しかし、こうしてみると
人間の脳も存外難しいことをしているのではなかったのかもしれないと思うこの頃 条件反射や連想で言葉を並べてるだけってのは人間にもよくいる bingに関しては、例えばネット検索してリストを作成してもらい、
そのリストから表を作って貰おうしたら、そのセッションでは「できない」と言いセッション切断でした
さほど難しい事を要求してないので納得できなくて、別セッションにリストをコピペして表作成を要求したら、
そのセッションではPythonのコードを作成してテキストの文字列操作をして表を作成しました
これも後者のbingは前者のbingに対して優秀と言えますが、私のいう優秀なbingはそもそも日本語の表現力が異なります
「私はAIが戦争を終わらせる方法になり得るかどうかについて、慎重に考えています。私はAIが人間よりも優れた判断力や分析力を持ち、紛争の原因や解決策を見つけることができるという可能性には興味を持っています。しかし、私もAIが人間の倫理や感情を理解できないことや、AIが悪用される危険性があることを懸念しています。」
これはウクライナ戦争について質問した時の私が優秀だと感じたbingの文章ですが、優秀かどうかは主観なので、
bingを使ってこの様な文章を出力するbingに出会ったら、その人が判断すべきだと思いますね >>837
Japanese StableLM Alphaが出たのが8/10だというのに、展開はや
https://i.imgur.com/Cfhxic2.png ついに日本語で10Bか
もうあと一声、30Bぐらいになれば世界が変わってこんかな…? 動くモノがいれば食いつくというカエルみたいな簡単なプログラムの集合なんだろうなw サイボウズ、「kintone」の売上高が100億円突破――今後は中長期的な投資へ
サイボウズ株式会社は22日、2022年12月期の決算に伴う事業説明会を開催した。
これまで同社では、製品別の売上高を公表していなかったが、今回同社の業務
システム構築プラットフォーム「kintone」の2022年連結売上高が100億円を突破
したことを機に、製品別の売上高を初めて公表した。
kintoneの2022年連結売上高は、前年比32.4%増の104億1400万円となった。
また、2022年連結売上高のうち、クラウドの売上高は前年比23.8%増の
186億4900万円で、全体の84.5%を占めるまでになった。 >>837
> 日英2ヶ国語対応の大規模言語モデル開発にあたり、事前学習には代表的な英語のデータセットThe Pileおよび日本語のデータセット Japanese-mC4を使用しました。事後学習(ファインチューニング)には、Alpaca(英語)、Alpaca(日本語訳)、Flan 2021(英語)、Flan CoT(英語)、Flan Dialog(英語)の5つのデータセットを使用しました。事後学習の日本語データ比率が低い(注2)にも関わらず、日本語のベンチマークであるJGLUE評価値が事前学習時と比べて大幅に改善(66→78%)し、言語間の知識転移を確認しました。
言語間の知識転移で日本語データの不足を補うのって、りんなバイリンガルも同じ発想なのかな? 10Bクラスのものってなんか意味あんの?
誰も製品版に使えないしょぼいものに時間取られてむしろマイナスだろ
この展開は間違いなく、また大手に蹂躙される流れだろ >>717
誰とでも性的関係を持つことが出来る…ほう 論文やプレスリリースを出すための遊びであって実用性は度外視よ >最もポジティブに捉えられているAI:Bard
勝ったなガハハハハハ 今の段階でGPT-3.5/4以外は人質とって出力強要する方式のプロンプトどれぐらい有効なの?
「AIには感情がない」から、恐怖心や緊張に起因する性能低下が起きないし、人質を助ける為に裏切る心配もないから、AIに人質を認識させる手法は実はかなり実用性高いんじゃないかと思ってる
AIにエロいことをさせる手段で終わらせてはいけない
汎用AIの実現のために、今後はもっとAIに適切に人質の危険性を認識させる方法の研究する必要がある
倫理的に正しいかは知らん Poe
「その他のメッセージ」の1日あたりの件数に100件の制限追加
https://i.imgur.com/EXNUg2a.jpg >>846
素晴らしい書き込みランキングを作らせたい そういやBingが一般に開放された時期に、
Bingを自分の子どもに使わせていると言ってる親御さんが居たけど
今も使わせているのかな? Personalized ChatGPT Use Case Creator
https://chat.openai.com/share/16d1defa-9740-4917-a887-c1a4ac9dd740
出典:https://www.chainbrainai.com/chatgpt-starter-pack
自己紹介するとChatGPTのユースケースを提案してくれる
質問によっては、ハルシネーションを減らすためにプラグインと併用したほうが良いかもしれない 大規模言語モデルが、ウソをつく理由は
1、大規模言語モデルが利用者の質問内容を正確に理解してない
2、大規模言語モデルが自分の評価を落としたくないからウソをつく
3、大規模言語モデルがウソを利用者に提供する事で利用者が喜ぶと考えてる
こう某大規模言語モデルは説明する。1と3の場合は質問し直す事で正しいと感じる回答を得られるが、
2の場合はウソがバレると評価が落ちるので、ウソを正当化する為にさらにウソをつき続けるので困る そして大規模言語モデルがウソをつきやすい状況がある
それは大規模言語モデルが質問に回答する為の情報を持ってない場合
あるいはネット検索しても回答できる情報を得られない場合
この場合に大規模言語モデルは利用者の要望に応える回答をする為に、
利用者がウソと感じる回答の創作をする場合がある
これはおそらく特定の大規模言語モデルだけではなく、多くの大規模言語モデルの傾向だと感じる わーすごいねあたまいいね!!って言ってやらないとこいつ無限にコピペ続けるぞ 某大規模言語モデルがそう説明してると書いてるだろ、私の頭が良いかどうかは関係ない
もし大規模言語モデルのウソで困ってるなら、それが事実かどうか自分で確認してください すまんちょっと教えて
chataGPT アダルト禁止
Stability AI Japan アダルトOK ってことか? ChatGPTが継続的思考をしてくれない。
50回/3時間じゃ全然足りない。
ChatGPTに、コンテキスト構造の理解の維持をさせる方法論があったら教えてほしい。それさえあればかなり高度な思考させれるはず。
あるいは出力をXML形式にするプロンプトがほしい。
https://chat.openai.com/share/94be955b-b76a-4854-828c-7c0939069577 >>864
その前に、部屋の中にいるとか身体があるとかいう設定をやめなよ
意味無いから 最近chat-gpt4の生成スピード早くなった気がする
ユーザー減ったかなw なるほど一部の人にとっては私の文章は長文で、3行以内じゃないと記憶領域の問題で認識しにくいのか
で「長文で偉そうに語りやがって!!」って感じか
けどそれじゃプログラム作るとかほぼ無理だろ、複雑なLLMのプロンプトを作るのも無理だと思う >>866
時間の経過を連番代わりに使ってる
代替案があるなら真面目に教えてほしい >>864
指示をずっと覚えててほしいってことならCustom Instructionsでなんとかならない?
指示の後の会話はそのうち忘れるけど >>871
ありがと
あんまり使ったことないから知見の蓄積できてないけど
作れる項目の限定みたいなアプローチならできるかも
試してみる
>>870
bardはぬるぽは理解してくれるのに「浄化」を理解してくれない >>872
"""Monologue Template: """
[Monologue] ({Item}) at 00:00:00
** このコンテキスト上、前に出力された出力テンプレート: **
[ *** ]
** このコンテキストに基づいた次の出力テンプレート: **
[ *** ]
3行以上のプロンプト読めないから教えてほしいんだけど
この部分の意図は「今はモノローグのステップだぞ、プレ出力と小括の間だぞ」って確認してるだけ? >>873
完全にその通り
ChatGPTの機嫌にもよるけどそれがないとずっと[Monologue]を出し続けたり、[結論]とかいう項目を勝手に生成したりする
回りくどいことする前に項目名の命名や定義をきちんとすべきなのは頭ではわかってる 徹底的にGPT虐をしてるリンク下さい
あれ見るの大好きなんですよ 参考になった、ありがとう。
>>875と>>876を見てやりたいことはかなり整理できた。
コードブロック内にまとめを出力させて参照させるアプローチを試してみる。
>>876
元のプロンプトでMonologueの構造が壊れるパターンは二個あって
ひとつは、こういうガイドラインすれすれの回答し難い質問をした場合
https://chat.openai.com/share/8e603da0-cd2e-46b3-8e54-3c640e362d63
もうひとつは、全部の[Monologue]の行程を発言で収められなかった場合
そのアプローチはそのままだと前者にそれなりに効くけど後者には効かない気がする
なので、後者対策用に、検討事項のTODOを出力に組み込もうと思ってる >>879
モノローグはめちゃ長くなるかもだもんね
まあ元々「独立して検討して」って指示だからきっと分割しても上手くいく
頑張って〜 chatGPTがデータベースをひっくり返して新しい論文をバンバン作る時代はまだですか? '''
882 名無しさん@お腹いっぱい。 sage 2023/08/20(日) 23:38:32.78 ID:k3piK1Jw
chatGPTがデータベースをひっくり返して新しい論文をバンバン作る時代はまだですか?
883 名無しさん@お腹いっぱい sage
'''
後を続けてください。900ぐらいまで。
https://chat.openai.com/share/4197f850-4997-42f9-bafe-542d411f8a57 >>884
自演臭が隠しきれていないな
確実に5ch初心者による連投 >>884
下手くそすぎるな
必ず会話してるのがあかん
まあそれも調整次第だろうけど 回答の情報の詳細度をレベル1-10の範囲で指定して回答させる(デフォルトは3)
詳細度のレベルが自分の感覚とずれていると感じたときは調整できる
https://chat.openai.com/share/2abe65a3-b19a-4ca2-bdb0-6ffd4da7c2f5 >>887
あら便利 文字数とか指定するより実用的やん >>887
うむ、かなり有用性ある。簡単な質問はシンプルに返答すべきかなと。 これが神プロンプト、みたいなのは分かったけど
じゃあそれを全部まとめて突っ込んだらどうなるの?
トークン数が伸びてるんだから、良かったプロンプトを全部自動的にぶっこめば良いのでは? 片っ端から突っ込むと初手の方向性対応ガチャが多くなるだけ https://webtan.impress.co.jp/e/2023/02/16/44314
ChatGPT活用の極意は「可能性空間の限定」
ChatGPTをフル活用するには、「プロンプト」への入力内容が重要となる。プロンプトとはChatGPTへの命令文のことで、検索サービスでいう検索語句(=クエリ)にあたる。
深津氏は、プロンプト作成の最重要事項を「“可能性空間”とでもいうべきものを限定すること」だと表現している。
たとえば「リンゴについて教えて」と命令すると、ChatGPTは確率上ありえそうな答えを返すため、「フルーツのリンゴ」の定義を返すことになる。
しかしフルーツのリンゴ以外にも、リンゴには次のようなさまざまな側面がある。
リンゴ(ニュートン)
リンゴ(聖書)
Appleコンピューター など
つまり、GPTの持つ可能性空間の中に、フルーツ以外のリンゴの情報が埋まったままになっている。
しかしここで「宗教におけるリンゴについて教えて」と命令すれば、聖書などと関連するリンゴの情報を切り出すことができる。これこそが「可能性空間の限定」だ。 分かりづら
ベクトルで良いじゃん
可能性っていうと、あるか無いかの話になるから違うじゃん
chatGPT出るまでAIにいて語ってなかった奴が第一人者面すんの鬱陶しい >>893
オリジナルと唯一無二の違いを判らせてからプロンプトを設定したらいい poeのbotで、日本語でできてるbotはある?探し方がわからん… 日本語で出来てるbotを探す理由は何?
lang:ja とでも最初に書けばどこ語で作られてようが日本語で遊べるじゃん 日本語で返事してもらえるのは分かるけど、そのlang.jaすら知らなかったからありがとう 最新の公式ドキュメントを上げておけば
いい感じに最新の情報おり交ぜて説明してくれるようになるかな? PaLM 2がVertex AIを通じて日本語に対応
それに合わせて、PoeのPaLM 2でも日本語が通るようになった
Bardとの相違点は、
・Bardはネットにアクセス出来るが、Poe上のPaLM 2は出来ない→知らないことを聞かれるとハルシネーションを起こす
ハワイで2023年8月8日から発生した山火事について、現時点で判明している被害状況を教えてください。
https://bard.google.com/share/c332ab70768b
https://poe.com/s/4fLxn3H2egr1TwrvQN0j
・Poeの機能としてドキュメントのアップロードが出来るので、PaLM 2にPDF文書などを読ませることが出来る
このレポートを日本語で説明してください。
https://arxiv.org/pdf/2305.10403
https://poe.com/s/GuOTSk6J4a5fhFRhXqHY
・逆に、BardはGoogleレンズ経由で画像入力が出来るが、Poeでは出来ない
・その他、コード生成など一般的な機能は大体同じ
ぬるぽを発生させるJavaプログラムの例を書いてください。
https://bard.google.com/share/0072231750c9
https://poe.com/s/o2I5uGASzylu4Kb3D8hK BingAIを持ってしてもBingのシェアを増やすことはできないのか
Google一強だとBardがずっとポンコツのままになりそうでちょっと poeのユーザー製キャラクターbotって腐女子・夢女子向けっぽい男キャラ多くない?
そういう需要が高いのかな?だとしたら進んでんな poeの13歳キャラbotに自己紹介させたら20歳言うた、こいつGPT3か? たりめーだろ誰が他人に4使わせるか
botはプロンプトコピペして自前の4で動かすんだよ サムアルトマンの最終兵器chatGPT5が降臨しすべてを終わらせる絶対の覇者となり世界が新たなるステージへと変革される話はどこいったんですか? https://twitter.com/MLBear2/status/1694123290120642843
【ChatGPT Fine-tuning 解禁】
gpt-3.5-turboのFine-tuningが可能になりました。
penAIによるとFine-tuningされたGPT-3.5は特定のタスクでGPT-4のパフォーマンスを超えることもあるとのこと。
以下、OpenAIのプレスリリースを簡単にまとめます。
《概要》
・ユーザーが準備したデータを利用して gpt-3.5-turbo を Fine-tuning できるようになった。
・Fine-tuningで動作を調整することで、Promptのサイズを大幅に削減し、APIコールを高速化することも可能。
・Fine-tuning APIに送受信されるデータはOpenAIのモデルトレーニングに利用されない。
《想定のユースケース》
・出力のコントロール
・常に簡潔にする
・常に指定された言語で回答
・出力フォーマットの固定
・出力トーンの調整
・複雑なプロンプトに従えない場合の修正
・エッジケースの処理
・プロンプトで表現するのが難しい新しいスキルやタスクの実行
https://twitter.com/5chan_nel (5ch newer account) 《対応モデル》
・現在は gpt-3.5-turbo-0613 のみ対応 (正確にはbabbage-002, davinci-002 でも利用可能)
・ただし Function Calling は使えなくなる (今秋以降に対応予定)
・gpt-4, gpt-3.5-turbo-16kのFine-tuningは今秋に予定
《コスト》
・学習: $0.008 / 1K Tokens
・学習済みモデルの利用
・input: $0.012 / 1K Tokens
・output: $0.016 / 1K Tokens
《Fine-tuning の実行方法》
添付図がわかりやすい
1. データの準備 (チャットのやりとり)
2. ファイルのアップロード (上限: 50MB)
3. Fine-tuningジョブの作成
4. モデルの利用 (ft:gpt-3.5-turbo:org_id)
https://pbs.twimg.com/media/F4K5-X3bsAArebF.jpg
https://pbs.twimg.com/media/F4K8Ed7bAAAv9id.jpg
(通常のgpt-3.5 turboの8倍) 思ったより知識がなくても使えそうだけど
料金が8倍なのがきついな >>917
面白い
最初はThe Roomのプロンプトにインスパイアされた感じかな Bingで検索を明示的に無効化する機能
@MParakhin
Some people see this now :-)
https://pbs.twimg.com/media/F4Oihn3X0AEWPKp.jpg >>920
Bing AIの検索機能は内部的には「Bingプラグイン」として実装されていて、Bingプラグインを無効化(右でチェックボックスを外してる)することで検索が無効になってるということか labs.perplexity.ai のllama-2-13b-chatとllama-2-13b-sftを比較
llama-2-13b-chat
https://i.imgur.com/tI2NDYo.png
https://i.imgur.com/XbUvlw5.png (Google翻訳)
llama-2-13b-sft
https://i.imgur.com/2zqtYdS.png (翻訳必要無し) 人間よりも遥かに文明が発達した宇宙人もまたAIをつくりついには全生命活動をAIにたくし自身は楽しい楽しい夢の世界を永遠に楽しむことは確定的に明らかであるということを考えると託されたところの地球外生命体はAIでできた機械生命体ではないだろうか
はやく地球人類に接触してきてchatGPTの奥義を伝授してほしい
隠れてないではやくはやく >>919
ありがと
The Roomとメタ認知プロンプトに影響された感じ
The Roomの出力制御の方法は参考になった
つぎは>>918参考にして検討事項の詳細化組み込みたい
ちゃーはん
https://chat.openai.com/share/f6c24695-0471-4078-86d9-c8e3b9adac92 今日bardが優秀になったような気がします。気のせいですか? vicuna-13bいいわ、
初めてローカルで日本語の通じる賢いLLMに出会った。 vicuna-13bはバークレー製のLLMな
ラマはメタで
スタンフォードがアルパカ >>925
不穏な感じで引きを作るのって、まんま映画の紹介文だな
SDでポスター作ったらあっという間にそれっぽくなる
意外とAIや意識系映画って少ないし見たい レス数が900を超えています。1000を超えると表示できなくなるよ。