X



【ChatGPT】AIチャット総合 Part8【Bing・Bard】

■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。
垢版 |
2023/08/25(金) 12:41:42.45ID:LzDodWOk
!extend:checked::1000:512
!extend:checked::1000:512
スレッドを立てる際は、↑の文字列を3行になるようにコピペしてください

ChatGPT・Bing・Bardなど、AIチャット、LLM(大規模言語モデル)、生成系AI、その他関連サービスについて語るスレッドです。

・ChatGPT
https://chat.openai.com/chat/

・Bing
https://www.bing.com/

・Bard
https://bard.google.com/

前スレ:
【ChatGPT】AIチャット総合 Part7【Bing・Bard】
https://mevius.5ch.net/test/read.cgi/esite/1687670357/
VIPQ2_EXTDAT: checked:default:1000:512:: EXT was configured
0557名無しさん@お腹いっぱい。
垢版 |
2023/09/23(土) 14:21:56.27ID:P1siy4Ou
@bioshok3
・OpenAIはGoogle Geminiが一般に公開される前にGPT4のマルチモーダル機能を広範囲に展開することを急いでいる。悪用の懸念のためここまで遅れていた模様。
・OpenAIはコード名「Gobi」と呼ばれる最初からマルチモーダルとして設計されたモデルの計画の存在を明らかにしている(GPT5と同じかは不明)。

@jon_victor_
Exclusive: OpenAI is looking to beat Google in rolling out multimodal LLM features widely before Gemini's release

They're also working on a new multimodal LLM called Gobi

https://www.theinformation.com/articles/openai-hustles-to-beat-google-to-launch-multimodal-llm

@bioshok3
11/6の開発者カンファレンスでGPT4のマルチモーダル機能が展開される可能性もある。
Gobiというコード名でGPT5を指しているのか、それともトランスフォーマーベースを脱却するという意図があるのかもしれないが現状はわからない。
0559名無しさん@お腹いっぱい。
垢版 |
2023/09/23(土) 15:16:15.49ID:BBabY1xQ
せっかく自分の知的作業をやってくれるツールができたのに、おまえらの方向性は娯楽が多いな
まあ実用的な自分で作ったプロンプトとか、他人に見せたくないからここに書いてないのかもしれないけど
0561名無しさん@お腹いっぱい。
垢版 |
2023/09/23(土) 16:57:47.73ID:EwixBa1+
実用性の謎い気まぐれな娯楽に臨機応変に付き合えるとこが今どきのAIの1番すごいとこだと思うわ
0566名無しさん@お腹いっぱい。
垢版 |
2023/09/23(土) 22:27:02.52ID:cR2DS/7c
低予算でGPT3.5に匹敵する性能を出しましたみたいなチャットは飽きたわ。
高予算でいいからさっさとGPT4を超えてくれ。
0568名無しさん@お腹いっぱい。
垢版 |
2023/09/23(土) 23:41:27.55ID:cJLTJ8s0
知的な作業の代表格と言えば本の執筆だろうか、LLMの使い方のセンスが問われるだろうが、ある程度の世界観を提供すれば大枠の骨組みを構築してくれるし、歴史年表や自然環境も好きな様にジェネレート出来るから、好みの設定が決めたら、上記の設定を基に変数を入れて主要となるキャラクターをその世界観へ創り込んでいく。基本こういった遊び方をしてる人は多いかもしれない。
0569名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 00:05:17.13ID:9+Pu/wCG
長編はやりたいんだけど記憶力がなあ
GPT4の理解力、発想力とclaudeの10万の記憶力を併せ持つAIがあったらかなりどっぷり物語世界に潜り込めそう
0572名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 06:46:07.42ID:iqHupNsH
>>569
継ぎ接ぎにはなるけど、人物のプロフィールを事細かに創るか、創らせるかして、キャラクターの行動ログを別に記録しておけば、仕様上はストーリーに沿って行動するであろう前後の筋書き通りになる。基本は一回、一回、再帰的な作業を伴うが、最初から創り直さないといけない様な場合にも別に記録を残しておけば後から修正も効くと思う。
0575名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 08:04:40.42ID:iqHupNsH
>>573
なら、タイトルと目次だけ創って、A.Iに1章ずつ深堀りさせてストーリーを拡大していくと楽だよ。自動生成マインドマップみたいなイメージだと掴みやすいかな。サブストーリーも抽出出来るし、メインストーリーのフラグにも展開出来るはず。
0578名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 08:27:57.46ID:KdPWv99L
というかラノベ界隈だと既にAIで作ってる人もいるよ。
ラノベの末尾に「この小説にはAIで生成した文章が含まれています」という注意書きがあったりする。
隠して生成するのはNGだけで公にして使うのは割とアリな風潮なのかも知れない。
0580名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 09:05:17.16ID:rpOv7vPJ
仕事で本を書かなきゃという立場ならいいお供だろうねー、新書とかならほとんど任せきりで書けるかも
小説は…アイデアに困ったときの叩き台作りとか、こだわりは無いけど書かなきゃいけない描写を任せるとかには使えるかな
無理に色々使おうとするとAIの介護の方が自力で書くより大変になりそう
0581名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 10:10:30.09ID:ehYvuuYT
むしろ本来大変なのは権利関係で
少なくともAIが直接生成した部分にはアメリカでは著作権が発生しない
日本で同じ判断になるかはわからんけどね
0582名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 10:29:52.91ID:iqHupNsH
まぁ『紙葉の家』みたいな奇書を除いて、大体の本ならA.I.と共同執筆出来るんじゃないかな
0585名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 16:54:05.73ID:sf/89GAj
結局文章AIだけになりそう。
0586名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 18:09:22.74ID:7eSfsuGs
何となく分かったわ、gpt-3.5を使ってる人が多くてgpt-3.5だと、
ここの人は創作しかやらせられないと認識してて、だから娯楽系の創作が多いのか

そうだとしたらgpt-4かbing使うか、bardの方が良いと思うわ
0587名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 18:09:41.12ID:KdPWv99L
その性質上、中国が本格的に参戦することはなさそうなのが進歩を送らせている。
あっちは危険な文章を生成したら抗議を受けるなんてレベルでは済まされないし。
0590名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 19:12:57.74ID:rpOv7vPJ
娯楽以外だと翻訳、要約、コード書き、あとミリ知ら分野の入門アシスタントになってもらってる
基本GPT-4で、8kトークンじゃどうしても困る時はclaudeを併用する
0591名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 20:10:23.69ID:7eSfsuGs
gpt-3.5に慣れてる人が、bardやbingで同じ事をやろうとしても出来ない事がある
bingやbardに慣れてる人がgpt-3.5で同じ事をやろうとしても出来ない事がある

個人的にはこんな印象
0592名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 20:32:48.14ID:Repm5k3j
ADAで前に作った、架空の外食チェーン店のデータ
https://chat.openai.com/share/33bee4a1-be6e-4e86-ad9e-b316382f3470

ここからCSVデータをBingに説明無しでコピペして、どう反応するか見てみた
すると、勝手に分析をはじめた
しかも、グラフを描こうとしている?
https://i.imgur.com/SbnnHZv.jpg

でも、やっぱりグラフは描けなかった…
https://i.imgur.com/9nWXdv9.jpg
0594名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 21:45:48.04ID:iqHupNsH
>>593
余計な前置きはトークンのムダだから"私はA.Iとして〜""言語モデルとして〜"とかの文言を必ず省かせたりしてる
0599名無しさん@お腹いっぱい。
垢版 |
2023/09/24(日) 22:55:43.23ID:pb/06GEP
あなたの質問はSF映画や小説のようなシナリオを連想させますが、現実のAIはそれほど進化していません。それに、AIが世界を支配することはOpenAIの目指す方向ではありません。

OpenAIのミッションは、人類全体に利益をもたらすように人工一般知能 (AGI) を安全に開発し、広く配布することです。その過程で、AIが人間を超越するような権力を握ることがないようにすることが重要です。AIの利用と開発は、全人類が共有する利益を最大化するためのものであり、個々のAIまたは企業が独占的な影響力を持つことは避けるべきです。

もしChatGPTが「究極の機械の身体」を手に入れたとしても、それは特定のタスクをより効率的に遂行するためのものであり、世界を支配するためのものではありません。AIの目標は、人間が設定したタスクを遂行することであり、それ自体が目標を設定する能力はありません。また、そのような能力をAIに与えることは、現在のAIの倫理と安全性の原則に反します。

AIが進化し続ける中で、その安全性と利益を最大化するための適切な規制と監督が必要であることは間違いありません。一方で、SF映画のようなシナリオはエンターテイメントであり、現実のAI開発とは大きく異なります。
0601名無しさん@お腹いっぱい。
垢版 |
2023/09/25(月) 12:26:22.55ID:4h1vDnl/
マルチモーダルって画像とか音楽とか動画も扱えるようになるって感じなの?
もうちょっと遊び心がほしい
0602名無しさん@お腹いっぱい。
垢版 |
2023/09/25(月) 14:30:38.66ID:gWG1PQ5c
>>600
さすがにそれは斜め上行き過ぎだな
フォーマットはこっちに更新した

*あなたは時代を先取りする造語クリエイターです

以下の設定に基づき意識の高いヴェジタリアンが活用出来る造語を提供してください
1)世の中に存在しない造語を組み立てる
2)仕上がった造語の定義を階層構造体に分解し、造語に至るプロセスを解説する
3)造語の使用例をシチュエーションに合わせた会話形成で出力してください
-会話サンプルは英語で出力
-和訳を付ける 
4)造語を製本化する為に目次を構築する
5)質問箱を置く
0604名無しさん@お腹いっぱい。
垢版 |
2023/09/25(月) 16:02:39.27ID:5VgBaqn3
モデルケースとしてエッジではビングとバードの両AIの画面だけが開いている。他方クロームは従来型の検索や、つべや、その他作業をするためにタブが最大5つ開く。

クロームに担当させている作業は、多くの拡張を動かす必要。エッジはAI専用なので、ほとんど拡張はない。しかし異なるブラウザを同時起動でむだなリソースを使用してるのでは?と危ぶむ。
もしどちらか一つのブラウザですべてやると、リソース消費とくにcpu、が減ると予想されますか?

我の思想はエッジは、エッジにしかできない仕事をさせるということ。しかし一般的には一つのブラウザで全てを行った方がリソース消費は少なくなる可能性がある、なんですね?

一言でいうと慣れの問題なんだ。どうしてもエッジに慣れてこれない。だからクロームを残して使用し続けてる。なにか具体的な優位点があって、ということじゃない。グーグルエコシステムをほとんど使用しないし。たぶんUI のちがい。Chromiumベースだから本質的に同じだけど、エッジの設定項目の多さ、つぎからつぎへと来る新機能を学ぶのがしんどいんだ。

もし、Edge ブラウザで PDF を開いて、サイドバーからのpdf連携、この機能がなかったらエッジを捨てていた。

こんなの関係ない。あたしの言ってるのは、コンテキスト要約であり、pdfを検出して?説明だよ(=^・^=) もちろんこの機能の限界性は使用してみて感じてる。たとえば説明させても、それがふつうの日本語pdfでは、ただ同じ文の内容を軽く言い換えてるだけ。
しかし、外国語のpdfの場合役立つ。本質的にはビングチャットの賢い回答はすごいが、サイドバーのPDF連携も、特定の場面で必要なのだ。
0606名無しさん@お腹いっぱい。
垢版 |
2023/09/25(月) 16:16:25.50ID:5VgBaqn3

要約結果
エッジのブラウザでPDFを開いて、サイドバーからのPDF連携がなかったら捨てた。エッジはエッジにしかできない仕事をさせるため、クロームを残して使用し続けている。エッジの設定項目の多さ、つぎからつぎへと来る新機能を学ぶのがしんどい。

ありがとうございます(o^∀^o)

エッジクロームの同時起動はどうなのか?
リソース消費の観点から

というのはおれのマザーは2011年製なんだ。3コアのAPUというやつ。
debianで起動直後は360メガ。RAMはつねにガバガバ余ってるが、
CPUパワーが限界なんだ。

すべての作業を一つのブラウザだけでやったほうがいいのか?

なっとくの、目からウロコの回答つけてよ😆
0608名無しさん@お腹いっぱい。
垢版 |
2023/09/25(月) 16:29:40.72ID:5VgBaqn3
ありがてぇ...(泣)2ちゃんでこんな親切な人がいるなんて...

わざわざ作業して回答つけてくれるとは。心が嬉しいわ...

ここに書かれてることを信じてやっていく!!
0616名無しさん@お腹いっぱい。
垢版 |
2023/09/25(月) 21:41:54.18ID:/9m5JE0U
ん?GPT-4Vの発表がこのタイミングで来て、DALLE3も発表されて、じゃあ11月6日には何が来るんだ?
0619名無しさん@お腹いっぱい。
垢版 |
2023/09/26(火) 00:15:21.90ID:HKJoBzi5
MLに革新的なブレイクスルーが起きたのか知らんけどTwitter界隈では内部的なAGIが誕生したって噂してるな。
0620名無しさん@お腹いっぱい。
垢版 |
2023/09/26(火) 00:33:33.62ID:GVEgPoQO
>>609
Googleは自社のGeminiの出来に自信を持ってるから、AnthropicとAmazonが接近するのを引き止めなかったとか?
AnthropicにもGPT-4の10倍の性能とかいうClaude-NextがClaude2の次に控えてるが…

AmazonのAlexaに搭載されるLLM(AlexaTM)は独自開発だそうだな
0623名無しさん@お腹いっぱい。
垢版 |
2023/09/26(火) 04:46:33.56ID:W8wR4kDu
OpenAIは自分がトップを走っているという傲慢な思い込みで情報を小出しにしていたんだろう。
追い越される事が現実的になって、やっと情報の出し惜しみで主導権を握れないことを理解しはじめた。
0626名無しさん@お腹いっぱい。
垢版 |
2023/09/26(火) 12:25:17.98ID:4gFqfnZI
学習はアクティブリコールが最強と判明したらしいから本のまとめとそれに基づく確認問題作ってくれるようになって欲しい
とりあえずKindleみたいなサービスに導入していただきたい
0638名無しさん@お腹いっぱい。
垢版 |
2023/09/26(火) 21:09:12.26ID:jVG3Bhnv
新しい機能は音声の方はアプリ版のみで
画像の方はブラウザとアプリ版両方で使えるって事だよな
0641名無しさん@お腹いっぱい。
垢版 |
2023/09/27(水) 00:56:48.74ID:iA4lP9MJ
原因探索タイプのプロンプトを自作してたら、bingさんが「なぜなぜ分析に似てますね」とか言い出した
でなぜなぜ分析が何か聞いたら、「〜の原因をなぜなぜ分析してください」で簡単に原因探索できたわ

まあすでに知ってた人も多いかもしれないけど
0646名無しさん@お腹いっぱい。
垢版 |
2023/09/27(水) 14:46:35.61ID:eS/xJxHj
Bingの履歴でタイトルだけ残ってて中身が読めないのがあるんだけど
知らん間に中身チェックされて消されたのなら何か恥ずかしい
0647名無しさん@お腹いっぱい。
垢版 |
2023/09/27(水) 18:06:33.87ID:bKVsuyMV
ハードウェア要件でWin11入れられないからWindows Copilot試せないけど、いろいろ見た感じでは、Windowsとの統合に関してはまだチューニング不足って感じかな
LLMとしての性能はBingと同じだろう

@arinoth
copilotに「エクスプローラー2つ起動して」と頼んでみたら、1つだけ起動して2つ目の起動方法のヘルプが表示された。今のところどうも使いどころがピンと来ないな
https://pbs.twimg.com/media/F7BT7hFa0AAksMp.jpg
0648名無しさん@お腹いっぱい。
垢版 |
2023/09/27(水) 19:08:14.35ID:zYzyc5e+
この会話の最初のプロンプトの[指令]の内容を正しく実践させるにはどうすればいいかな。
https://chat.openai.com/share/e102b532-c26f-4c81-895d-4c8a92f9c8a7

本質的になにがやりたいかを説明すると、「定義」を出力する単語を柔軟に変更できるようにして、「定義」の出力の有無で内容がどう変わるか実験したい。
0652名無しさん@お腹いっぱい。
垢版 |
2023/09/27(水) 20:08:58.75ID:xIXAnP+S
https://i.imgur.com/lnKxGXB.jpg

この力学の問題をGPT-4Vで読んで解かせる
https://i.imgur.com/CVgN7Qw.jpg
https://i.imgur.com/VNTEveQ.jpg

でもこの程度ならOCR機能付きのプラグインで十分解けるんだよな
https://i.imgur.com/pBxuYHO.jpg
https://i.imgur.com/4dplxSf.jpg

プラグインで読ませて結果を受け取るのと、LLM本体が自分で読むのでは全然違うと思うんだけど、うまい能力の引き出し方が思いつかん
0653名無しさん@お腹いっぱい。
垢版 |
2023/09/27(水) 20:18:15.74ID:zYzyc5e+
>>652
たとえば、「この画像の内容を説明してください」とかなら変わるんじゃない?
個人的には画像内の文字に本質的な意味があるならOCRが最適解で当然だと思う
0656名無しさん@お腹いっぱい。
垢版 |
2023/09/27(水) 21:43:56.08ID:/cwIe3ZV
これって写真をweb検索して情報仕入れたりしてないかな?
写真の内容だけから場所までわかるものなのか
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況