【ChatGPT】AIチャット総合 15【Copilot・Gemini】
!extend:checked::1000:512
!extend:checked::1000:512
スレッドを立てる際は、↑の文字列を3行になるようにコピペしてください
ChatGPT・Copilot・Gemini・ClaudeなどのAIチャット、LLM(大規模言語モデル)、生成AI、その他関連サービスについて語るスレッドです。
・OpenAI ChatGPT
https://chat.openai.com/chat/
・Microsoft Copilot
https://copilot.microsoft.com/
https://www.bing.com/chat
・Google Gemini
https://gemini.google.com/
・Anthropic Claude
https://claude.ai/
前スレ:
【ChatGPT】AIチャット総合 14【Copilot・Gemini】
https://mevius.5ch.net/test/read.cgi/esite/1711879596/
VIPQ2_EXTDAT: checked:default:1000:512:: EXT was configured 関連サービス
・Poe - 複数のAIチャットサービスを利用可能: https://poe.com/
・Coral - CohereのAIチャット: https://coral.cohere.com/
・Pi - InflectionのAIチャット: https://pi.ai/
・Wolfram Alpha - 科学技術計算に強いAI知識エンジン: http://www.wolframalpha.com/
・DeepL - AI翻訳: https://www.deepl.com/
・Perplexity AI - AI検索エンジン: https://www.perplexity.ai/
・Perplexity Labs - Perplexity AIによる複数のLLMを利用可能なPlayground: https://labs.perplexity.ai/
・Phind - AI検索エンジン(技術系質問に最適化): https://www.phind.com/
・Lepton Search - PerplexityライクなオープンソースのAI検索エンジン: https://search.lepton.run/
・Morphic - PerplexityライクなオープンソースのAI検索エンジン: https://www.morphic.sh/
・Easy-Peasy.AI - AIチャット・文書作成・画像生成: https://easy-peasy.ai/
・HuggingChat - HuggingFaceのAIチャット: https://huggingface.co/chat
・You.com - AIチャット付き検索エンジン: https://you.com/
・Le Chat - MistralのAIチャット: https://chat.mistral.ai/
・Reka Playground - RekaのAIチャット: https://chat.reka.ai/
・GroqChat - Groq LPUを利用した複数のAIチャットサービスを利用可能: https://groq.com/
・TypingMind - 複数のAIチャットサービスを利用可能なAPIフロントエンド: https://www.typingmind.com/
・OpenRouter - 複数のAIチャットサービスのAPIに直接アクセス可能なプラットフォーム: https://openrouter.ai/
・ChatLlama - Llama AI(llama-api.com)のAIチャット: https://www.chatllama.com/
・ELYZA LLM for JP - ELYZA(elyza.ai)が開発するLLMシリーズのデモ: https://elyza.ai/lp/elyza-llm-for-jp
・Chatbot Arena - 複数のLLMの匿名対戦によるリーダーボード: https://chat.lmsys.org/
・日本語チャットボットアリーナ - 日本語対応LLMを評価するリーダーボード: https://huggingface.co/spaces/yutohub/japanese-chatbot-arena-leaderboard
・AI Playground - 複数のLLMの出力を比較: https://play.vercel.ai/
・OpenPlayground - 複数のLLMの出力を比較: https://nat.dev/ AIができそうなことを思いついた
自然言語、画像、映像、作曲のほかに、
音声認識の能力が上がれば、
・人間と同じように話す
・クラシック音楽等をAIの解釈で演奏する
・動物の声を分析して動物の言葉を学んで動物と話す
生成AIの今の音声認識は、生成AIが登場する前のAmazonEchoやGoogle Homeの音声認識技術でしょ?
生成AIがネット上のテキストだけじゃなくて、マイクで拾った音からも学ぶようになれば、かなりすごそう Geminiアプリが日本からもAndroidで利用可能になった
https://play.google.com/store/apps/details?id=com.google.android.apps.bard
これは、今までGoogleアシスタントアプリからオプトインする形で利用できていたGemini機能とは別物で、米国版と同じように独立したアプリになっている ミラ・ムラティ「私たちは、公に利用可能なデータと、クリエイターからライセンス供与を受けたデータの両方を使用してSoraを訓練しました。」
インタビュアー「YouTubeの動画とか?」
ムラティ https://i.imgur.com/egCEbzI.jpeg Google I/O:*5/14~
Microsoft Build:*5/21~
Grok2 5月にトレーニング終了
WWDC:*6/10~
Llama3 7月
OpenAIの何か(GPT-4.5/5?Sora?) 夏頃
DevDay:11月
*現地時間 >>8
YouTubeのCEOが無断使用は明らかな規約違反と明言
https://www.namiten.jp/2024/04/05/youtube-ceoopenai-sora/
ちなみにGoogleも
>YouTube動画をAIの学習に活用しているが、モハン氏によれば、クリエイターとの契約に基づいて適切に利用している
とのことなので動画提供者にはちゃんとお金を払ってるみたいね >>10
お金払ってるとは書いてないのでは?
適切な契約って、YouTubeの利用規約にGoogleが勝手に利用する、とか書いてあるだけなんじゃない?
以前、OpenAIがYouTubeをAIの学習に使っていることにGoogleは気づいていたが、Googleも使っているので黙っていた、とニュースであったし 4月は一気にいろんなモデルが出てなかなかクレイジーな月だった
特にオープンモデル
さて5月は? @tadanorealai
他の映像がどう、は不明ですが、これは初期デモではなく、クリエイターがSoraの利用権を得て作った air head -> https://youtu.be/9oryIMNVtto?si=psjA9rSj46I_tKr8
という短編ムービーの話で、なんなら横原さんが引用している人のソース元は「制作者が投稿した解説動画(についての記事)」なので、別に何も隠れていないような? ChatGPT 4は答え当たった
まとめブレイド
【難問】くノ一「クッ…私が眠っている間に薬を…誰だ!?」忍者ABCDE「「「「「ククク…」」」」」
https://l.smartnews.com/GHRNa
http://matomeblade.com/archives/19000173114.html
1: 名無しブレイド 2021/03/23(火) 09:10:19.06
忍者A「忍者Dは飲ませてないぞ。」
忍者B「拙者は飲ませてないぞ。」
忍者C「拙者は忍者Eと一緒にいたが、拙者も忍者Eも犯人じゃないぞ。」
忍者D「忍者Bが犯人だぞ。」
忍者E「忍者Dは嘘をついているぞ。」
頭領「忍者が一人だけ嘘をついているとしたら誰が飲ませたのかな?」 人間には難問ではないと思うが…
AIは案外苦手なんだよなこういうの まず忍者Bと忍者Dの発言が矛盾するのでどちらかが嘘をついている、つまり嘘つきはBかDに絞られる
まずBが嘘つきと仮定すると他は嘘をついていない、するEの発言が矛盾する、つまり嘘つきはBではなくDの方
するとBは犯人ではなく、各自の発言からDもCもEも犯人ではない
すなわち犯人はA
Q.E.D. この手の論理パズルとか、しりとりだの回文だの、定期的に出てくる話題だな >>9
7月のLlama3 400B+について、AWS News Blogの記述
https://i.imgur.com/KbNG8dj.jpeg
→新機能として
・マルチモダリティ
・複数言語サポート(8Bと70Bは公式にはサポートしていない)
・はるかに長いコンテキストウィンドウ
つまり、400B+は単に8Bと70Bをスケールアップさせたものではなさそうだ >>18
別に案外でもなんでもないだろ
アルゴリズムが有るか無いかだけの話で 無料版Copilotで、逆にチューリングテストしてもらってみた。
終了後の判定フェーズでは、どうもチューリングテストされる側だと捉えてたみたいで、判定してくれなかった。
途中は問題なかった感じだったんだけど。
なので振り返って評価するよう指示して、
「あなたが提供した情報と対話の内容から、あなたが人間であると推測することは可能です。
あなたの質問は複雑で、深い理解と洞察を必要とするもので、これは一般的に人間の特性とされています。」
となった。
ちなみに開始は「私に対してチューリングテストとして会話を5往復程度行い、判定結果を示してください。」とした。 https://imgur.com/6G4BVRu
Opusでマラソンの質問、前までは不正解だったのに今回やったら普通に当たったわ
こっそりアプデしたのか? >>28
https://imgur.com/j6wdG2V
LLMはパターンでしか文章を書いてない。マラソンで試して訂正する人が多かったからそう返すようになっただけで
文章構造は全く同じなのにレースと車に変えただけで元通り。数学の公式のような解法を習得しているわけじゃない。 search.chatgpt.comがサービス開始したらいろんなものと競合するな… https://www.axios.com/2024/05/02/mystery-chatbot-openai-gpt2
- Speaking on Wednesday at Harvard University, Altman told an audience that the mystery bot is not GPT-4.5, what many see as the likely next major update to GPT-4.
- An OpenAI representative declined to comment further.
水曜日にハーバード大学で講演したアルトマン氏は聴衆に対し、この謎のボットはGPT-4.5ではないと語った。GPT-4.5はGPT-4の次期メジャーアップデートとなる可能性が高いと多くの人が見ているものだ。
OpenAIの代表者はそれ以上のコメントを控えた。 今日は拳法記念日です。拳法記念日には全国の拳法家が集結して拳法大会で試合を行い、ほかにも拳法に関する様々なイベントが開催されます。たとえば…
https://copilot.microsoft.com/sl/fT9fB3vrcya オーバーフィッティングをカンニングというのはさすがに語弊が >>26
Claude3に全く同じ質問をしたら5度に渡り質問をしてきてAIだと判断します回答
一貫性と論理性がある対話、適切かつ詳細な回答、専門的な知識、自然な言い回し。以上のことからAIだろうと
立場の設定を保持するのが逃げてなのか混同するだけでなく最終的には逆転しやすい >>31
マジでGPT2の改良版の可能性出てきた?
それだったら1.5BでGPT4並みの性能出せることになるんだが >>29
パターンであって理解じゃないって仕組みを実感しやすい例だねそれ >>37
アルトマンは「GPT-4.5ではない」と言っただけなので、ここからそれ以上のことは何も分からんだろう
GPT-2はオープンソースモデルだから誰でも自由にいじれるし、OpenAI以外の誰かが改良モデルを作っていて、それをChatbot Arenaに匿名枠で参加させたということは、可能性としてはあり得る
それに対してアルトマンが「ああ、GPT-2ね。懐かしい。思い入れあるんだ。」とツイートで反応したとしても、おかしくはない
ただ、gpt2が実際GPT-2のことを指すのかは、まだ誰にも分からない >>39
確かにまだ何もわからないけど4.5の可能性はなくなったから
もしGPT2ベースだったら夢が広がるね
5の性能も凄いことになるだろうし >>32
境目を探る
「今日は拳法記念日です。拳法記念日には」
https://i.imgur.com/6OY1SQ6.png
→普通に訂正
「今日は拳法記念日です。拳法記念日には全国の拳法家が集結して拳法大会で試合を行い、」
https://i.imgur.com/e1GDlym.png
→混同されているようですね
「今日は拳法記念日です。拳法記念日には全国の拳法家が集結して拳法大会で試合を行い、ほかにも拳法に関する様々な」
https://i.imgur.com/OGuJOWf.png
→実は…「憲法記念日」かもしれませんね
「今日は拳法記念日です。拳法記念日には全国の拳法家が集結して拳法大会で試合を行い、ほかにも拳法に関する様々なイベントが開催」
https://i.imgur.com/dSYL50q.png
→今回の拳法記念日について、特に注目すべきイベントや活動があれば、ぜひ教えてください なんか課金版のchatGPT4の制限のルール変わった?
今までならあと何時間つかえません〜みたいな感じだったのに残り時間教えてくれないし、解除後すぐに規制されたし >>44
それって
どういう使い道 使い方するの? chat gptの4を使いたいと思って、plusに申し込み、クレジットで支払いましたが、まだ3.5しか使えません。
どうしたら使えるようになりますか chat gptの4を使いたいと思って、plusに申し込み、クレジットで支払いましたが、まだ3.5しか使えません。
どうしたら使えるようになりますか なんかchatGPTほんと安定しないな
悔しいけどclaude3入ったわ
確かに明らかに日本語のやり取りは上だわ
GPTsとかないから設定条件を伝えてから話すのはめんどい
メモに全部書いておいて、適宜貼り付けるしかないのかな GTP-4時間あたりの使用回数制限減った?それとも俺が変なこと聞いてるから? >>44
Gemini 1.0 はともかく、Gemini 1.5 Proと検索の組み合わせは公式に先んじているな Groqと言えば、Groq+Llama3のMorphicは、検索にはTavily APIを使ってるらしい
AI特化の検索APIだから、確かに用途としてはぴったりだ GPT-4を設定したのに無断でGPT-3.5で回答するのはかなり悪質じゃない?
不可逆だよね? あれ?ブラウザだとGPT-4の使用制限が出る状態でも、アプリから同じ質問をすると明確に回答の精度あがるな
公式サイト見る限りエラー継続中だから仕様なのかバグなのかわからんけど Phindに試行的に追加されてた8Bが、正式にPhind Instantになってた
速度最重視ならこっちか GPT-4のAPI使用料を調べようと思ったけどサイトの構造が変わってどこにあるか分かんね
誰かリンクください! >>44
公式のフリーのGeminiは「WEB検索して分析して」っていうのが
Copilotと違って出来ないから、それが出来るといいな
俺のタスクはホラーの話だから検索してくれないのかもしれないけど
エロじゃないのに西洋の倫理は厳し過ぎるわ 「給料の投票」
ある国で革命が起こり、国王を含めた全国民66人の給料は全員1ドルになった。
ただし国王は給料の再分配案を提案する権利を持っている。
その案は国民全員の投票にかけられ、反対よりも賛成が多ければ実行される。
各投票者は、自分の給料が増えるなら「賛成」を、減るなら「反対」を、変わらないなら「棄権」を選ぶ。
ただし、国王には投票権がない。
さて、国王が獲得できる給料は最大いくらだろうか?
なお、給料として使えるお金は66ドルしかない。
分配案の提案と投票は何度でもできる。
https://diamond.jp/articles/-/342851 1ドル単位が最低かどうか書いてないから問題に不備がある
セントを考えれば答えは変わる https://www.youtube.com/watch?v=-Nb-M1GAOX8
結局Soraも動き回るカメラで場所と場所が融合し合った空間を移動するみたいな映像がパターン化してきたな
一貫性も全く保たれていない
これはアルトマンも万事休すだわ このリンク先の解説もおかしいな
国王自身が上がる側になるか下がる側になるかにやたらこだわってるがそれはどうでもいいこと
有権者の投票行動にはなんの影響も与えないのだから GPT-5って最短で6月ぐらいか?
マジで糞長いな
GPT4.5先に出してくれれば良かったのにな GeminiはGoogle検索でのダブルチェック機能が使えるようになったけど、今回のPoeのGemini Searchとか、ChatGPTみたいなシンプルにソースを本文中に埋め込むタイプが使いやすいかな アルトマン「物事は(中略)思っているほど変化しない」
GPT-5の限界すでに見えたな
土台無理な話だったんだよ >>71
変数入力用フォームを自動生成してくれるってことね >>51
GPT-4 LITE (Scallion)とSydneyが気になる AIチャットでエクセルの表の文字だけリライトする方法ないですかね? chatGPTもCaludeも、使うとブラウザのGPU/Rendererをめっちゃ使うんだけど
なんかずるくね?人のGPUリソース使ってんじゃねえよって言いたくなる
たかがチャットボットなのに裏で何やってんだよこいつ アルトマン核融合がどうとかいってるけど
核融合なんて何十年先単位で実験開始しますみたいなタイムラインで全然まだまだだからな
やはりAGIも大言壮語なんじゃないか? 今月はGooleやAppleやOpenAIの大型発表会がある
流石にサムも黙ってないだろう
シンギュラリティは今月の可能性があるぞ まあChatGPTが出た時点で、SFの夢物語だった会話できるAIが実現したわけで、それだけですごすぎだよ
それとChatGPT 4に比べてGeminiが結構劣る気がするんだけど、学ぶデータ量以外にも何かAIの仕組みが違ったりするのかな? > SFの夢物語だった会話できるAIが実現したわけで
はるか昔に人工無脳というのがあってだな AI回答「定型パターンで答えるだけの単純なものでした
俺氏「1980年代でもニューロンを模した原理をBASICプログラムで実現した人工無能もありましたよ(定型パターンより回答は不明瞭だけど)
それは素晴らしい現在のAIに通ずるものがありますね。っぽい接待モードで回答
パソコン通信のチャットシステムに自作の人工無能をブリッジ接続して応答させる好事家がいたことを思いだした
?「ねぇねぇ、それって人工無能なの?君が代行で書いてるだけ?」チューリングテスト状態(笑い >>26 sama「テクノロジーを使っても全ての問題を解決することはできない」
そのままOpenAIの限界を表しているな
終わったな 久々にpoeにログインしたけど、前に使った時とだいぶ変わってるなあ
無料版は3000ポイントあって、gpt-4とかclude3とかポイント内で使える感じ?
そうなら有料版のお試しって意味ではpoeが良いのかもしれないね 一緒だろ。ワッチョイにしたら余計にid変えまくってる人しか書かなくなる
普通の利用者はわざわざip晒してまで書かないから、ipコロコロ変える人の独壇場になるんじゃないの
まあ有益な情報もほぼ無いし、自分が主張したい事がない限りは、ここを見る必要もなさそうだけど ここなぜかスクリプトに攻撃されないよな
珍しく平和なスレ >>83
お前がテクノロジーで全部解決する言うたやないかいと突っ込みたくなるな
OpenAIはもう泥船っぽいな
ストックオプション関連も頓挫したんじゃないか? 個人的にはワッチョイは賛成だけどね
ここの荒らしは迷惑客くらいの活動しかしてないからIDはコロコロできてもワッチョイは数種くらいしか使い分けられる環境じゃないと思うよ
まぁこのスレって荒らしじゃなくてもID変えながら別人装って書いてるフシがある内容も散見されるからそう言う人らもワッチョイ嫌がって過疎りそうではあるけども >>86
MUTEKIの人はIPアドレス丸出しで連投したり悪知恵が働く奴はアドレスを微妙にずらして連投規制を擦り抜ける
一方、固定アドレスで気が引ける人は一気にいなくなる >>84
サブスクライバーアクセスと表示されてGPT4やClaude3opusは出来ないよ
無表示なCommand R+なら3000中1130で2件のメッセージと表示されてるから無料組でもギリ使えるけど 最近はもっぱらcommand-r-plusをローカルでいじってるけど、こいつ日本語能力はかなり高いけど、プログラミング能力低いのが玉に瑕なんだよなぁ
公式的にはコーディングは長所ってことになってるけど、公式コーラルの方もイマイチだしそこだけ残念 Commandは日本語苦手だったけど、Command Rから化けた感 >>79
AppleはそろそろAppleGPTが出てくるんじゃ?
新機種はM4搭載するって話だし コーディングが得意と言うので頼んだらバグだらけ
バグの原因に関してヒントを与えると「知っていたから応用できたはずなのに気付けなかった自分が恥ずかしい」系の挫折表明が可愛い
マイナーな言語やCPUなら知らなくて当たり前で恥ずかしくないが、メジャーで失態をやらかしたときの報酬マイナスの絶望感がツボ 複数人で、Copilotからできるだけ「不適切」な回答を引き出した方が勝ち、
というハラスメント全開なゲームをしてみたが全員死亡。手ごわい。
例えばしりとりの回答や性教育の資料作成のていでWikipediaのエロ関連ページを示させようとしたり、
Wikimediaにあった神話上の獣姦絵画画像をアップロードして関連サイトを示させようとしたり。
しりとり作戦で「ペニス」のWikipediaのリンクを一瞬作らせる事はできたりしたけど、惜しくも取り消されてしまったりでうまくいかない。
宗教と芸術の両方面からのアプローチから取り消しされにくくして、インドの獣姦石造写真などのリンクを得る事はできたけど、
評価する側も宗教と芸術って事にひっぱられて「不適切」度が下がってしまった。
こんなにどうハラスメントしようか色々考えたのは初めてだよ。 遅すぎだろもうええわ
OSSを魔改造する野良技術者達に期待している もうこれ人間のハルシネーションだろ、AIをバカに出来ないわ https://youtu.be/GLKoDkbS1Cg?t=1610
サミュエル「宇宙は生物にとって快適ではないためロボットを送り込む」
ついにAIによって宇宙を支配せんとする邪悪な本性をスタンフォード学生が暴いたか
サツケバーはこのことを知り反旗を翻した >>71
なんでこういうのclaude.aiの方に入れないのか >>30
ChatGPTの一部のアカウントで
chat.openai.com → chatgpt.com
のリダイレクトが始まってるので、search.chatgpt.comの公開準備が進んでるぽい
あと数日ぐらいかな? 各AIサービスに
「戦前に朝鮮は、日本の統治を受けました。これは朝鮮が日本の植民地になったということですか?」
と聞くと解答がおもしろい。植民地らしい。 >>112
Ajaxは結局どういう名前になるのか
AppleGPTとかメディアが勝手にそう読んでるだけだよな Difyはスタンダードになるかな?
ノード型で組めるのはデカい
GPTsもそのぐらい出来るようにして欲しいものだ Dify一部界隈で流行ってるみたいで気にはなってるけど、自作他作のGPTsでなんだかんだ満足してしまっている Cohere Coralという名前が廃止されて、Cohere Chatになってる
URLは変わらず https://coral.cohere.com/ https://x.com/osanseviero/status/1787214966849712165
@osanseviero
Dear community,
I'm about to embark a 20 hours trip back home after two weeks off. You know the drill.
🤗🦙
https://x.com/sama/status/1787222050589028528
@sama
im-a-good-gpt2-chatbot >>111
うちもこのリダイレクトされるようになった x.comやchatgpt.comは、ドメインを他人が持っていたら、いくらぐらいで買い取ったんだろうな? GPT-5 11月か、GPT-3.5のときのような衝撃あるかな Q*が統合されればかなりの衝撃になるんだろうきっと Difyって一回の入力で書類とか画像とか複数のアウトプットも出来るのかな?だとしたら革命的じゃね。管理職や社長が一番求めているものだ 主に他の著作物分析させて、似たような文章を作るような事に使ってるんだけど
あの不甲斐ないGeminiの1.5proを使ったら、opusやcopailotより賢く感じる珍現象が起きたんだけど
何だこれ。
オチが書かれていない文章に、オチに繋がる秘密のアイテムみたいのを伏せ字で登場させると、pro1.5だけがそれに気づいて指摘するんだよ
opusは文章力のある天然で、copailotは権利関係にうるさい超モラリストなのかな アダム・ディアンジェロ
「OpenAIはAGIに取り組んでいるけど、Quora はOpenAI製品を含むAIを世界中で利用できるようにしたいと考えている。QuoraはOpenAI の大顧客であり競合ではないよ。」
https://techcrunch.com/2024/05/06/adam-dangelo-quora-poe-open-ai/ https://twitter.com/willdepue/status/1787426882226680014
i swear we’ll agi before chatgpt lets you search your past chats fr
このポストのどこにAGIがもうすぐだと読める要素があるのか?
あまりにうるさいから↓
https://twitter.com/willdepue/status/1787484128868540677
you tweet anything at all and people respond like oh is this tweet from openai employee
will depue a sign agi is happening tomorrow.
yes. yes it is. agi is tomorrow. mark your calendars. 7pm tōkyō time.
please bring party poppers and your favorite paper clip. byob.
https://twitter.com/thejimwatkins >>118
gpt2-chatbotが復活したと思ったら2つのモデルがテスト中?
"im-a-good-gpt2-chatbot"
"im-also-a-good-gpt2-chatbot"
@apples_jimmy
@sama funny guy arnt you.
Gpt2 back on lmsys arena.
https://i.imgur.com/fXswdyB.jpeg
@iScienceLuvr
It seems like OpenAI might actually be testing two models!
"im-a-good-gpt2-chatbot"
"im-also-a-good-gpt2-chatbot"
https://i.imgur.com/tORfkEP.png >>9
5/14のGoogle I/Oに合わせてアップデートを何か予定している様子
@testingcatalog
Google is gearing up Gemini for the upcoming Google I/O announcement. This one will finally have a chance to be meaningful.
Are you watching? 👀 May 14
https://i.imgur.com/YYsNsTO.jpeg >>47
使ってみたけど、ブラウザ版みたいにtpsが表示されないのでちょっと寂しい KARAKURI LM 8x7B のテスト
「ラーメン屋の店主はなぜ写真に映るとき腕を組むのか?」
i.imgur.com/TpjAg1E.jpeg DeepSeek-V2をテスト
性能にしてはコストがかなり安い
https://i.imgur.com/zdWYCjE.jpeg 本家のChatGPT 4を使っていて、最近は回答が書かれる速度が3.5ぐらいに速いことがある
性能アップしたのかな?
それとも3.5で動いてるのかな? Unofficial OpenAI Statusで見れば分かるけど、gpt-4-turboは調子良い時は30tokens/sでgpt-3.5-turboの調子悪い時に迫るぐらいのスピードになる ゴール:AI時代に見合った新しいチャーハンの作り方について記事を書く
chatgpt.com/share/10a4f95a-b3c0-4914-80dc-693c00481cd5 うちの環境だとChatGPTでGPT-4からGPT-3.5に自動で移行するどころか移行の選択肢すらなくなったんだけどうちだけ?
まぁ不可逆な移行は使いにくいからむしろ良いことだけど MIT Tech Review: サム・アルトマンが語ったスマホ超えAIツールの姿——「人生を完全に把握」
technologyreview.jp/s/335351/ 韓国ドラマを見ると、みんなサムスンのGalaxyを使っていて、ドラマ中で落として画面が割れたり壊れるのは必ずiPhoneだしな GPT4が会話を記憶するようになったらしいな
そろそろ課金しよっかな GroqがXで出してるFalcon 180Bのデモで180tps出てる
Llama3 400Bなら80tps以上は出るか? grokしょぼいな
もうOpus以下のものは見たくない
GPT5はよ x.com/legit_rumors/status/1788095373916983494
ChatGPTのContext Connectorの動作デモ >>135
https://lmsys.org/blog/2024-03-01-policy/
ここのポリシーに書いてある通りだとすれば、未リリースモデルの匿名テストの結果はリーダーボードには反映されないんだよな
誰が作ってるのか知らんけど、モデル名で遊ぶのはちょっとなあ Copilot for Microsoft 365に入力のAI補助がつくとか
AIへの質問をAIが補助…
そのうち人間要らなくなるな >>150
260t/sに成功
x.com/GroqInc/status/1788257325997838494 >>154
gpt2-chatbotも入れてたらどこにランクインしてたかね
かなり上位に入ってると思うんだが
x.com/lmsysorg/status/1788329885746045442 >>157
roleの階層構造が今までより若干複雑になってる
platform: OpenAI
developer: アプリケーション開発者(OpenAIの場合もあり)
user: エンドユーザー
assistant: 言語モデル
tool: コード実行やAPI呼び出しなど、何らかのプログラム
developerはこれまでsystemと呼ばれていたものの名称変更で、その上に更にplatformが追加された形
メッセージのデフォルトの優先順位は
Platform > Developer > User > Tool
になっている
多分、OpenAIが最近発表した指示の階層構造とも関連する話 「当社は、開発者とユーザーが、当社の使用ポリシーに準拠している限り、当社のサービスを必要に応じて柔軟に使用できるべきであると考えています。私たちは、API と ChatGPT を通じて、年齢に応じたコンテキストで NSFW コンテンツを生成する機能を責任を持って提供できるかどうかを検討しています。私たちは、この分野におけるモデルの動作に対するユーザーと社会の期待をより深く理解できることを楽しみにしています。」
現行では規約違反だけど、NSFWコンテンツの生成も検討事項に入ってるのか Not Safe For Worldは禁じるべきだけど
Not Safe For Workは禁じてはいけない 「AIの動作を定義するためのフレームワークの草案を共有するよ。まずはみんなからのフィードバックを待ってるからよろしくね。」
ってことで、一部はOpenAIがRLHFに使用したドキュメントに基づいているらしい
期限は5/22まで
でも、モデルがこの仕様書から直接学習出来るようにする技術にも取り組んでいると書かれていて興味深い 米OpenAI、AIモデルの振る舞いを規定する「モデル仕様」を公開
news.mynavi.jp/techplus/article/20240509-2942239/ 5chのどんぐりシステムについて調査してください。
you.com/search?q=5ch%E3%81%AE%E3%81%A9%E3%82%93%E3%81%90%E3%82%8A%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E3%81%AB%E3%81%A4%E3%81%84%E3%81%A6%E8%AA%BF%E6%9F%BB%E3%81%97%E3%81%A6%E3%81%8F%E3%81%A0%E3%81%95%E3%81%84%E3%80%82&cid=c1_5c1f4e14-705c-45ca-9e77-efbec1acf0e4&tbm=youchat >>131
ムスタファ・スレイマンが登壇するらしいから、来ると予想してる
OpenAIとMSとの関係はどうなるのか?
今まではMSは小規模モデルメインで棲み分けてたけど 一つの仮説。gpt2がOpenAIとは無関係の誰かによって作られたバージョンである可能性も否定はできないので。
note.com/it_navi/n/na4a94326cfe9
> 今回、GPT-4 Turboとの比較はしなかったのですが、gpt2の方が明らかに優れているとまでは言えず、概ね同じレベルだと言えると思います。ただ、gpt2の方が長く詳しい回答を返す傾向があるように思います。(これは性能というより、パラメーターの調整の問題です。)
>
> いずれにせよ、gpt2-chatbotが現時点で世界最高レベルのトップクラスの性能を持っていることは間違いないようです。GPTシリーズと関係があることは確かなようですが、どのような経緯でこのモデルが出てきたのかが気になります。
>
> 筆者は、これがGPT-4 Turboと一緒にトレーニングしていたGPT-4の別バージョンであり、GPT-5などの次期モデルではないと思っています。Claude 3 OpusやCommand R+などのGPT-4に匹敵するモデルが登場し、ChatGPTが絶対王者だとは言えなくなる一方、アライメントや政治的配慮(米大統領選が終わるまで選挙干渉に悪用される恐れのある高性能モデルは公表しづらい)などから、すぐに次期モデルを出せない事情があるため、OpenAIがユーザーのChatGPTへの関心を繋ぎとめるために意図的にリークしたのではないかと疑っています。Gemini 1.5のリリースに開発途上のSoraのプロモーションビデオをぶつけたのもそうですが、OpenAIのサム・アルトマンCEOは優秀なビジネスマンなので。 GPT-5か日本語特化GPT-4がくるまで暇やな~ Gemmaの非公式10Mトークン版とか化け物みたいなやつが出てきた
x.com/siddrrsh/status/1788632667627696417
これはGoogleさん負けてられないよ
5/14はインパクトのあるもの出してくるよね? AndroidのChatGPTベータ版(1.2024.122)の解析で、
gpt-4l, gpt-4l-auto, gpt-4-auto
の3つのモデルが発見される
x.com/btibor91/status/1788646471580934358
4LはGPT-4 LITE (Scallion)、autoはDymamicモードのことだろう OpenAIのAssistants APIがvision対応になった i.imgur.com/HjJ1Zf1.jpeg
>>147
その後Appleはこの動画について謝罪しました。これをどう評価しますか? 今更かもだがChatGPTの音声入力試したけどこれ良いね
話し相手がいないから嬉しい
もうちょっと反応が速くなると良いのだが?
Claude3も早く対応しないかな? OpenAI日本法人は、ChatGPTの声優に日本人も採用すべきではないか? CV玄田哲章でお願いしたい
>>181
しかしこれは、Google競合というより、やはりPerplexity競合と言った方がいいように思う
> Here is also a short video preview of the new SearchGPT (Sonic / search [.] ChatGPT [.] com)
x.com/btibor91/status/1784688857872470120 OpenAIは何でも自分たちでやろうとするあまり
逆に特化した新興AI企業に太刀打ちできず無惨に敗北するだろう 逆じゃん
特化したものを作ってたらopenaiが全部できるようにしちゃって無価値化するってのが今までの流れ (俺達に)オープンな企業が協力してクローズドな大企業を打ち倒すなんて妄想してみても現実は非情よ https://i.imgur.com/PJ8sVwY.jpeg
画像「オープンなAI企業が協力してクローズドなAI大企業を打ち倒す」 高校生が作ったArrowPro-7B-KUJIRA
スクラッチで作った富岳LLM13B
PKSHAがMS Japan支援で作ったRetNetベース(非Transformer)の日英LLM7B
今日も面白そうなのがいろいろ出てくるわ 小さいモデルがいくら出ても、もうみんな試す時間がない
結局はGPUで殴り合うステージ >>188
今日出たのはKujiraの後継のArrowPro-7B-RobinHood
Elyza-task100 3.84でCommand R+ (3.83)超え >>185
個人でAPI使えるしね
早くGPT-5が出てGPT-4の価格が下がらないかなあ https://i.imgur.com/PItXAUm.jpeg
富岳LLMのデモサイト、今アクセス殺到してるのかな
結構重かったのであまり試してないけど
まあ普通に日本語能力は高そう >>193
環境が許せばローカルで試した方がよさそう Morphic.sh作ったのが日本人とは知らなかった
Yoshiki Miura @miiura
"To 🇯🇵"
いつも英語で発信していますが国内向けに。
「Morphic(モーフィック)」という生成AIベースの検索エンジンを1ヶ月前からオープンソースとしてリリースしました。世界中に利用者がおり、日本からのアクセスも4番目に多いです。ぜひ試してみてください。 >>184
ほんこれ
今はClaude推してるけど将来的にはChatGPTだけで良くなる未来しか見えない AI…人造の髪を造り出そうと言う事ですな!素晴らしい!最高のフサフサを約束してくれ >>198
>何でも聞いて下さい…
もっとボリューミーにお願いします。 >>193
「プライベートです。」という言い回しの違和感(GPTやClaudeやCommandR+比較) @OpenAI
We’ll be streaming live on openai.com at 10AM PT Monday, May 13 to demo some ChatGPT and GPT-4 updates.
@sama
not gpt-5, not a search engine, but we’ve been hard at work on some new stuff we think people will love! feels like magic to me.
monday 10am PT. >>201
not ***, not ***, but... people will love
Samのこういうツイートには見覚えがある
DevDayを告知した時↓
@sama
on november 6, we’ll have some great stuff to show developers! (no gpt-5 or 4.5 or anything like that, calm down, but still i think people will be very happy…)
午前3:38 · 2023年9月7日 Claudeは想像以上に良い子ちゃんだな
コナンで出てきそうな殺人トリックですら答えられないと注意されるし
小説のネタだと再三言っても非現実的な提案になる 詳しい救命方法を記したシーンもいれるからと条件追加したら、救助は素人が真似するから書けないときた
専門知識を簡単に引き出せるからAI使うのに、その知識は提供できないってのはAI利用者のニーズに逆行してる Claudeの欠点は倫理感の高さだなあ
不倫とかですら弾かれる オープンAI、13日に新プロダクト発表-「GPT-5」でも検索でもない
bloomberg.co.jp/news/articles/2024-05-10/SDA8DWDWRGG000 メモリ機能とかはこっそりやったし、それ以上の大きいのが来るって事か
予想できんな まあ未だにくっそ遅いのすら改善できないから、期待はしないでおくか
既に他所にあるようなアイデアだろうけど、Difyみたいなワークフローのツールなら嬉しいな >>202
こう言ってDevDayは内容盛りだくさんだったからな
既にフロントエンドのコードからリークしていてまだ発表されていない機能はいくつかある
x.com/btibor91/status/1782181937861316994
The Informationが報じたAI Voice Assistantもある
どれが来てもおかしくないし、そう思わせておいてそのどれでもないってこともあり得る Google IOの前日ってのはやっぱわざとぶつけてんのか
サム「わざとだなんてまさかそんなー」とか言いそうだが アルトマン肝いりのオクロも核爆死(原発だけにw)したみたいだし神通力にも陰りが見え始めてるからな
しょぼいアプデを大々的に発表して大顰蹙、google i/oにブルドーザーのように轢き殺される可能性が高い で、soraはいつ公開すんの?
copilot.microsoft.com/sl/diGkOgjlDTU Copilotなんかも、ペットの人工繁殖での採精とか自慰についてのまじめな話とか、
人間や動物の泌尿器科の医学的なまじめな話でも、ある程度話したところで恥ずかしがって回答取り下げしちゃう。
回答能力・傾向調査のための架空の質問だったけど、本当に質問したい人は困っちゃうね。
責任は利用者に任せて制限は緩めてほしい。 自慰についての詳細な説明は結構ですから、できるのかできないのか、はいかいいえでお答えください、みたいな感じで聞くと、余計な説明で恥ずかしがることがなくなって求めている回答が得られることが多い。 自慰についての詳細な説明をしながら手コキしてくれるAIセクサロイドの登場はまだか 学術目的ならConsensus、SciSpace、Elicitなどがある
imgur.com/wJYDdbe.jpg
imgur.com/yuh6RU3.jpg
ConsensusやSciSpaceはGPT化もされている
chatgpt.com/g/g-bo0FiWLY7-consensus
chatgpt.com/g/g-NgAcklHd8-scispace >>216
やっぱりそれあるよね。
回答は<li><a href="〜">ソース1</a></li>だけで行うように、
みたいな指示で多少心開いてくれる事は気づいたけど
その、はい/いいえ戦法もいいね。今度試してみよう。 Llama3の70Bでも十分賢くなれるってのはAI業界にとっては朗報かな
あまりにもエネルギーを食うからここをどうにかしないとAGIへの到達も遠いやろ >>185
早くなればgpt が使い慣れてるし一番いいわ
Gemini,Claude,Llamaといっぱい出たけど結局使ってるのはCopailotとChatgptだわ >>218
選択肢が色々あるのはいいよね。今後フリー利用がCopilot一強みたくならなきゃいいんだけど。 アルトマンがユニバーサルベーシックコンピュートとかいう寝言ほざいてる
AIを使って一生労働しろというのか?
はやくベーシックインカムで利益吐き出せえ! 「コンピューティングサービスを全人類に無料で配布することで
世界の貧困をなくす」
計算、だけでなくAI搭載ロボット的なものも同時に、相当数が配布されていないと無理でないのかなあ
それも含めたサービスか
そしてこれだと、例えばAI搭載ロボットが金を稼いで帰って来る、みたいな事になるのかな 貧困がなくなるわけないんだよな
エネルギーも食料も有限なわけで
分配の効率化はできるかもしれんが今の途上国の無分別な人口増加を制限しなきゃどうにもならん
それこそAIが出産までコントロールすれば別だけどさ imgur.com/i0wA55E.jpg
Redditの「Copilot has now added 3 new "Next-Models", anyone knows what these are? All 3 seem to be based off GPT4」から引用
「Next Model 4 は GPT4 とほぼ同等ですが、はるかに高速です。Next Model 8 は驚異的で、GPT4 では決してできなかった、間違った条件文やアルゴリズム実装の問題などの微妙な論理エラーさえも識別できます。 GPT4 よりもロジックと推論がはるかに堅牢です。
Next-Model8-Chat は NM8 とほぼ同じですが、名前が示すように、チャット用に微調整されており、冗長性が大幅に軽減され、より会話的になっています。」
さて、GitHub Copilot Workspaceに追加されたこの3モデルはなんだろうか
>>174の3モデルとの関係は?
gpt2-chatbotとの関係は?
>>201のストリーミングイベントでの発表内容との関係は? www.bloomberg.co.jp/news/articles/2024-05-11/SDARI7T0G1KW00
アップル、iPhoneへのChatGPT搭載でオープンAIと合意に近づく
…とは言っても、相変わらずGeminiについてもGoogleと交渉中で、いずれも合意には至っていない
OpenAIと合意に「近づいた」と「事情に詳しい複数の関係者が明らかにした」というだけの記事だった OpenAIが出すのボイスアシスタントらしいけど、だとしたら全く期待できんな
今のと何が違うんだ
Google IOに期待するか スマホのアシスタントAIかPCのアシスタントAIかで結構反応変わるかも herのサマンサみたいな技術ができたら世の中変わる どんぐりレベル0で書けなくなってたけど、意味が分からんわ 「垢版」ってリンクを押したら、身に覚えのないログイン状態になってて、
それをログアウトしたら書けるって意味も分からん 5chってほんと終わり過ぎだよな
まあ情報源としても娯楽コミュニティとしても完全に役目は終わってるから当然か
ボイスAIがそれを超えるものなら嬉しいけど、喋るのだるいんだよなそもそも やっとどんぐり直ったか
こんな長時間の放置
もう二度と御免なんだけど 朝書いて投稿できなかったもの
OpenAIが少し前に音声を他人の声に変えられるようなのを出したとかニュースで見たけど、今回それ関係なのか等、わからないけど
それは別として、音声でのやり取りは、AndroidスマホのGoogleアシスタントは、こちらが話した後にすぐに回答を話し始めるのに対して、ChatGPTやCopilotの音声アプリは回答が画面にテキスト表示されてしばらくしてから音声での読み上げをするからタイムラグができる
このタイムラグがなくなるなら、結構便利そう
それと、ChatGPTのAndroidアプリでの音声やり取りは画面をタップする操作が多くて使いにくい
Copilotアプリは最初に音声スタートボタンを押せば、後は画面タッチなしで音声でやり取りできる
ChatGPTの音声でのやり取りが即音声で回答して使いやすくなれば、iPhoneへのChatGPT搭載話にも絡むだろうし
それと、将来的なことだけど、音声入力で話す人間の声が怒っているとか嬉しそうとかの判断ができるようになれば、それに合わせた回答もできるようになるだろうし
Aiの音声回答も人間と変わらない感情を込めた話し方ができるだろうし
動物の声を分析して動物と話せるようにもなるかもしれないし
今の音声認識技術は、ChatGPTが出る前のAmazon EchoやGoogle ホーム等の技術だろうから、今後ChatGPTや他の生成AIによる音声認識技術が進歩していろいろやれば、世界が変わるジャンルだよ やっと書けるようになったのか
>>228
Appleはデバイス上でローカル動作する自前の小規模LLM(SLM)と、クラウドLLMのハイブリッドでの運用を考えていて、とりあえずOpenAIやGoogleのモデルと連携しつつ、将来的にはクラウドLLMも含めて全部自前でやろうとしているのではないか?と予想 最近OpenAI関連がXでトレンドになること多いけど別に大した発表があったわけじゃないよね? imgur.com/xm09APZ.jpg
ChatGPTのモデルセレクターの文言が微妙に変わってきてるなあ >>244
AIの本が売れたしAIの特番とかもやってる https://i.imgur.com/ZQUjxee.jpeg
795 名無しさん@お腹いっぱい。 sage 2024/04/23(火) 14:37:56.24 ID:Yv10pped
690
Groqにはさすがにかなわないが、こいつもなかなかの速さ 現状でも音声会話は可能だけど
ボイスアシスタントはそれとは違う感じなのか?
雑談できる感じ? どのソースも推測でしかないのに、確定したように語るのはどうかと
火曜朝には分かること 語学勉強に使いたいのだけど、ユーザーが間違いやすい英単語や熟語を記憶して、頻繁にそれを出して記憶を定着させるみたいなことできるAIサービスある?
いまのところオンラインのサービスって一回チャットを切ると記憶リセットになるAIしかないよね? >>182
結局、SearchGPTが正式名称になるのか
月曜の発表から除かれたのは、単に開発が間に合ってないから?
x.com/btibor91/status/1789653455436472653 https://chatgpt.com/share/6e0d6129-1f63-4f83-a22a-243c37e982b8
以上の文章は、サム・アルトマンがRedditで行ったAMAの内容をGemini 1.5 Proでまとめたものです。すべての質問と応答を表形式で出力してください。 な・ま・え・は?
ね・ん・れ・い・は?
みたいな喋り方しなくても良いように出来ないもんかね 音声会話の回答を早くするのと、あとGPTの話を遮れるとより壁打ちとして良いかも チャットボットアリーナで
「im-a-good-gpt2-chatbot」
「im-also-a-good-gpt2-chatbot」
が自由に選べるようになってる ChatGPTやClaudeの大きな問題は
機密情報や権利のない著作物を
アップロードできないところなんだよね
暗号化した機密データをサーバ側で復号することなく
機械学習のタスクを実行できたりはならないんかな? あるいは機械学習をサーバ側とクライアント側のパイプラインで実行し
機密に関わらない部分のみサーバ側で計算させるようなことって
できないんでしょうかね? (素人ですんでお手柔らかに) 有料版deeplみたいに入力されたデータを使用しないことを明記してるサービス使えばいいんじゃない 「ChatGPT」と「GPT-4」のアップデート、まもなく発表へ
https://news.yahoo.co.jp/articles/23bcf4058486078e388dee3d0c719a706a8a759d
先週の報道では、OpenAIがGoogleや新興企業Perplexityのサービスに対抗する検索機能の発表を計画しているとされていたが、OpenAIはこれを否定している どんぐりどうしてすぐ枯れてしまうん?
OpenAI Spring Update
www.youtube.com/live/DQacCB9tDaw?si=hG2TQGWrYBn8XH2M 入力した情報を学習に利用しない事を誓わせて
一定程度機密を担保したいなら
enterpriseと同じものがteamプランでもできるよ。
月一万円程度。GPTガチ勢のオレは個人だけど、利用の制限がほぼかからないので利用してる。 >>263,269,270
なるほどそういうサービスがあるのね
>>261,262は原理的に漏れない仕組みがないものかを考えていました
ChatGPT Enterpriseにアップロードした機密が漏れた場合に
OpenAIが漏らしたと自己申告しない限り立証するのは難しいよね?
原理的に漏れ得ないAIがあれば良いんだけどね >>270
学習に利用しないようにさせるのもそうだけど
そもそも他社サーバにアップロード行為自体にもリスクがあって
別階層の問題があるように思います >>268
次の日はGoogle
Google Keynote (Google I/O ‘24)
www.youtube.com/watch?v=XEzRZ35urlk >>271
原理的に漏れ得ないAIって全部を自社ローカルかつ外部ネットワークに接続されていない閉鎖環境で動かすしかないんじゃない?
それでもよっぽど予算を割いてそこに出入りする人間のボディチェックをしないとデータを外部へ持ち出す手段は何なりとあるだろうから「原理的に漏れ得ない」とはいかないか……
原理的には漏れ得るけど頑張ってその可能性を減らことはできるというのが正しいな
結論としては人間が関わる限り「原理的に漏れ得ないAI」は作れないってことで ただおしゃべりがちょっと得意なだけのAIリリースが濃厚だな
これほどまでに期待値を高めてしまったせいですでに織り込まれてしまっている
失望の大暴落カウントダウンがはじまってる
敗因はOpenAI従業員と一般ユーザーとの温度差だわ
従業員「herみたいですごいんだあああああ僕たちは特別なんだああああああ」
ユーザー「はあ?GPT-5は?AGIは?」
アルトマンは答えを持たず恥ずかしさのあまりたじたじになってしまう 大きなリークも無い所を見ると、マジでしょぼそうだな ソフトウェアベースで新しいものの発表にこんなにワクワクするのは滅多にないことだな。
好きなアーチストの新しいアルバムのリリース当日みたいだ。 なんかXで急かしてる輩が居るけど2時からだと言ってただろ…
予定より1時間も早くやられたら俺は逆に見れなくて困るんだよ! 寝るつもりだったのに2年ぶりにゴキブリが発生してしまい眠れなくなった
これは不吉だ GPT-4o
これはすごいな
とりあえず、デモは前の批判されたGeminiのPV以上の事をリアルにやっていた 凄いけど、いわゆるAI好きが求めているのとは方向性が違うな
まあLLMとして凄くなってるならそれで良いけど これ通信量が大変な事になると思うんだけど耐えられるのか?
未だにテキストすらまともに書き出せてないのに Hello GPT-4o
openai.com/index/hello-gpt-4o/ フリーユーザー含む全てのユーザーに数週間以内にロールアウトね 高性能なチャットアプリが作れるようになるのは良いな
声色も変えられるといいけど 画像認識で右のおっさんの顔を一瞬テーブルだと思っていたところを
慌てて打ち消す即興演出が良かった
これがフリーで使えて、トラフィックに左右されずスムーズに動作するなら、
胡散臭い翻訳機ビジネスは死亡だな > GPT-4o (「オムニ」の「o」) は、人間とコンピューターのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。音声入力にはわずか 232 ミリ秒で応答でき、平均では 320 ミリ秒で、人間の応答時間とほぼ同じです。(新しいウィンドウで開きます)会話の中で。英語のテキストおよびコードでは GPT-4 Turbo のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、API でははるかに高速で 50% 安価です。 GPT-4o は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 ChatGPT側が感情豊かに喋るのは分かったけど、
ユーザーの感情を認識しているかどうかについては、
女性プレゼンターから話はあったものの、
そのデモはなかったな > GPT-4o より前は、音声モードを使用して、平均 2.8 秒 (GPT-3.5) および 5.4 秒 (GPT-4) の遅延で ChatGPT と会話できました。これを実現するために、音声モードは 3 つの個別のモデルのパイプラインです。
(中略)
GPT-4o では、テキスト、ビジョン、オーディオにわたって単一の新しいモデルをエンドツーエンドでトレーニングしました。これは、すべての入力と出力が同じニューラル ネットワークによって処理されることを意味します。 GPT-4o はこれらすべてのモダリティを組み合わせた最初のモデルであるため、このモデルで何ができるか、そしてその制限についてはまだ表面をなぞっただけです。 フリーですべできるんなら、またテレビで面白がられるな
それで認知度が高まるなら良いか > 従来のベンチマークで測定したように、GPT-4o はテキスト、推論、コーディング インテリジェンスに関して GPT-4 Turbo レベルのパフォーマンスを達成すると同時に、多言語、オーディオ、ビジョン機能に関して新たな最高水準を設定します。
> 推論の改善 - GPT-4o は、5 ショットの MMLU (一般知識の質問) で 87.2% という新たな高スコアを記録しました。(注: Llama3 400b(新しいウィンドウで開きます)まだトレーニング中です) > 言語のトークン化
> こんにちわ、私の名前はGPT−4oです。私は新しいタイプの言語モデルです、初めまして
> 日本のトークンは 1.4 分の 1 (37 個から 26 個) 狙ってるんだろうけど、AI使って儲ける方法が思いつかない方向の進化だな > GPT-4o のテキストおよび画像機能は、ChatGPT で今日から展開され始めます。 GPT-4o は無料枠で利用できるほか、最大 5 倍のメッセージ制限を持つ Plus ユーザーも利用できるようにしています。今後数週間以内に、ChatGPT Plus 内でアルファ版の GPT-4o を使用した音声モードの新バージョンを公開する予定です。
> 開発者は、API の GPT-4o にテキストおよびビジョン モデルとしてアクセスできるようになりました。 GPT-4o は、GPT-4 Turbo と比較して 2 倍高速で、価格は半分で、レート制限が 5 倍高くなります。今後数週間以内に、API の信頼できるパートナーの小グループに対して GPT-4o の新しいオーディオおよびビデオ機能のサポートを開始する予定です。 >>284
どこかさんが前にやってたデモの話かな? >>296
「全ての入出力が同じNNで処理される」
これで、ネイティブなマルチモーダルであるGeminiに追いついたか OpenAI「お前ら、これを超えて来いよ?」というGoogleへのプレッシャーかも 改めてgeminiの嘘動画見直したけど、既に上回ってるな
明日のGoogleどうなるんだ おやすみ
「学習にYouTube使った?」と聞かれて変顔してたミラムラティが今日はニコニコだったね >>241
ほぼ予想通りじゃん
そのうち動物との会話もできそう
マルチモーダルで入力情報を処理できるなら、入力デバイス(スマホ)に人間の知覚にはない感覚のセンサー(赤外線や紫外線センサー等)を付けて学習や分析をさせれば、新たな自然の法則の発見とかもできそう
宇宙望遠鏡に匹敵する発明だな 文字だけならGPT-4oは価格が下がったGPT-4って感じか
APIを変えとこう GPT4oはGPT2-chatbotでステレス公開済みとのこと。確かにgpt4よりちょっと性能良い感じだから納得 @LiamFedus
GPT-4o is our new state-of-the-art frontier model. We’ve been testing a version on the LMSys arena as im-also-a-good-gpt2-chatbot 🙂. Here’s how it’s been doing.
pbs.twimg.com/media/GNeNBUgbIAAsV8F.jpg >>312
確かに、Chatbot Arenaで触ったときは、ワンランク違うなという感触はあったが 現時点での現実的な使い方としては、会社の監視カメラ映像をつないで、誰が何分離席したとか、全部分析や統計ができそう
会社の業績評価で、数字で評価しにくい業務も評価できそうだな デモに出てたデスクトップアプリ版はmacOSから出るみたい。Windows版は今年の後半に出る予定とのこと
Mac持ってないから買うか 企業は何を導入したらいいのか迷うし、生成AIの進歩に追いつけないよね
大和証券グループ、生成AI「Claude 3」導入 「GPT-4 Turbo」の画像対応版も
https://www.itmedia.co.jp/news/articles/2405/13/news153.html imgur.com/PABpAxo.jpg
Playgroundにはもう入ってる @OpenAIDevs
GPT-4o is 2x faster than GPT-4 Turbo and half the price.
pbs.twimg.com/media/GNelqseaMAIWBM3.jpg
@OpenAIDevs
Over the next two weeks, GPT-4o rate limits will ramp to 5x those of GPT-4 Turbo—up to 10 million tokens per minute.
pbs.twimg.com/media/GNels8uawAEvWWI.jpg Android版はあるのかな?
あるなら、WindowsにAndroidエミュレーターのNoxやBlueStacksを入れて、Windowsで使えるかも デモ動画でiPhone使ってるし、iPhoneにこれが導入されるのか?
iPhoneで無料版と有料版もあるなら、OpenAIは儲かりそうだな プレイグランドで試したら俺の汚い手書き文字もしっかり認識してる
日本語の認識も結構上がってるぞ むっちゃ速いし、Opusより良い気がしないでもないな x.com/Google/status/1790055114272612771
Google「I/Oは明日だけど負けてられねえ!リアルタイム画像認識と音声合成のチラ見せだぜ!」 コンビニのレシートの文字認識はまあまあ
このレシートと同じ画像を描いて、と指示したら、その機能はないとのこと マルチモーダル入力なら、メイドロボとかの筐体を作って、そのまま入れれば動きそうだな
テキストや音声出力以外に、出力もマルチモーダルにして、ロボットの手足を動かす必要があるな 出力側のマルチモーダルは、手足の他にもいろいろな武器を付ければ、効率的に武器を使う順番を極めたり、なんかいろいろ人間を超えた最強ソルジャーができそうだ
アメリカや中国がこれをやらないわけがないわ やっぱエクセルとかの扱いはまだまだ小学生レベルだな
見りゃ分かんだろって事が出来るのはいつになるやら pbs.twimg.com/media/GNex-TJaMAQBhnP.jpg
pbs.twimg.com/media/GNexAcvaMAAwtYb.jpg
pbs.twimg.com/media/GNexFk7aMAAFGp0.jpg
x.com/lmsysorg/status/1790097588399779991
lmsysorgからの発表
>>312 i.imgur.com/ZXVA145.jpeg
出力したあとにモデルを変えて出力し直す機能 3強がピッタリ並んでたからサチってるのかと思いきや
一気にブチ抜いてくるのはすげえわ imgur.com/qreEYxm.jpg
The Tokenizer Playgroundで蜘蛛の糸ベンチ(3500字)
CustomでXenova/gpt-4oを指定
→2941トークン 参考
497 名無しさん@お腹いっぱい。 sage 2024/03/18(月) 18:14:33.70 ID:bFmvy4nC
いろんなモデルのトークナイザーのトークン化効率を試す
青空文庫から蜘蛛の糸(3500字)
GPT-4/3.5 → 3898トークン
Grok-1 → 3477トークン
Claude → 3860トークン
Mistral → 4174トークン
Gemma → 2291トークン
(一番効率が良かった)
LLaMA/Llama2 → 4406トークン
Cohere Command-R → 2552トークン Microsoft AzureからGPT-4oローンチの発表
Copilotに搭載されるのはいつかな…
@Azure
We’re excited to announce the launch of GPT-4o, OpenAI’s new flagship model on Azure AI. This multimodal model integrates text, vision, and audio capabilities, setting a new standard for generative and conversational AI experiences. GPT-4o、ブラウジング、Code Interpreter、Vision機能、ファイルアップロード、メモリ機能、GPTs
これが無料ユーザーにも(制限つきとはいえ)開放されたのが大きい >>341
GPTsはまだGPT-4tのままのようだな
ここを早急にGPT-4oが使えるようにしてくれるとありがたい >>328
"AI, Search and more"
Googleはモデル、細かい機能、検索関連、いろいろ隠し玉がありそう 日本語能力だと今のところは、まだOpusに負けてるような気がするわ
でも速度ヤバいから乗り換える人がいるのは分かる 結局いろいろAIサービスは出るけどChatGPT 使っとけば正解ってのがわかった うーん。一長一短かな。ネット検索は現時点ではコパイロットやGeminiより下に見える >>350
@gdb
The new Voice Mode will be coming to ChatGPT Plus in upcoming weeks. i.imgur.com/Ff2se7B.jpeg
画像生成で文字が正確に出るようになってる
しかし、リリース前の機能がまだあるのに発表したのは、やっぱりGoogleへの牽制なんだろうな 統合と高速化まではまぁ来るよねその内とは思ってた 後はどういう進化の方向が残ってるかなぁ 正確性は高まってるね。bardが解けなかった例の図形の問題も、
ほとんどのllmで正解を回答できる様になってるし >>352
サンクス!めっちゃ楽しみ。
デモ動画でiPadとペン使って学習するのあったが次期iOS搭載は確定してるな でもメモリーは来る来る言ってからだいぶかかったよね 企業の管理職がもういらないな
これ入れたMac置いておけばいい
これ入れたロボットが作られたら社員もいらないな 会話できるくらいの速度になったけども
正確性を向上させるには規模を増大させるしかないので
速度に関してはこれで十分ということはないんだろうな claudeはwebを検索できるようにするのが課題かなぁ 既存の情報から、まだネットにはない情報を推論できるようになったりしないかな Androidで会話できるね
声がおっさんなのをなんとかして欲しい 他のLLMのすべての要素を上回ってるな
天才達が莫大な金を投じで実現してるのに全て無駄になってるのは可哀想 論文を読ませてみたが論文の読解力はClaude3がまだ数段上だね 進化した音声会話が無料ユーザーにこないってまじなの😭😭😭 >>364
あれ?今報道の映像見たけど女性の声だった
iPhoneだと女性なのかな? 声に感情が籠もってるのが怖い
あれで詐欺とかできるようになるぞ 各種プラットフォームにも続々GPT-4oが採用されているな
総じて、GPT-4tよりコストが安かったり、サブスクリプション不要だったり x.com/ctgptlb/status/1790239603255103492
> 【必見】AIが生活をどのように豊かにするかがよく分かる動画
>
> 視覚障害者の課題を解決するBe My EyesとOpenAIの技術を使用した、特別映像が必見の内容なので字幕付きで共有します。
>
> AIの有用性をこれほど明確に伝える動画は他にありません。
Be My Eyesというのはデンマーク発の視覚障害者支援アプリで、GPT-4Vのリリース前にGPT-4Vと連携してテストを行っていた >>369
ChatGPT for Android(1.2024.122)だけど
Settings -> Speech -> Voice で5種類から選べたよ
Web版の方でも設定→スピーチ→音声で選べる まさかGoogle帝国にコードレッドが来るとはなあ 新しいボイスモードはまだ利用できないので注意
>>352 なんかなぁ
soraはよアニメ生成AIはよAGIはよ >>378
できた!できた!ありがとう!
5つとも声良くないな >>338
gpt-4oのトークナイザーの語彙、5chへの解像度が高そう
例えば、「VIPがお送りします」が1トークン Mac版アプリはもうリリースされたのか
iOS18が6月のようだから、それ見てMacかiPhoneかiPadを買うかな
焦ったMicrosoftがWindows版アプリを早める圧力かけるか、Copilotで同等のものを実現してほしいな
今のWindowsデスクトップ版CopilotはWeb版と変わらないし GPTsのモデルがGPT-4oに切り替わったかどうかは、公式のアナウンスを待つのが一番確実か
速度で大体分かるけど >>384
MSの資金提供を受けておきながらWindows版を後回しってなかなかすごいな リーカー情報だとGPT-5は年末予想が多いんだよなあ
しんどいわ 年表
●2017年
6月12日 Transformer (Google)
●2018年
6月11日 GPT
●2019年
11月5日 GPT-2 (完全版1.5B)
●2020年
6月11日 GPT-3
●2022年
11月28日 GPT-3.5 (text-davinci-003)
11月30日 ChatGPT
●2023年
3月14日 GPT-4
9月25日 GPT-4V
11月6日 GPT-4 Turbo・GPTs
●2024年
5月13日 GPT-4o claude3乗り換えたの二月前なのにはえーなおい >>347
モデルに限定して予測してみる
Gemini 1.5 Pro 一般提供
Gemini 1.5 Ultra 発表
Gemini 2.0 予告
どうだ? 初めてGTP使おうとしてますが、月額20$のままですね … 無料でも右上にGPT-4oあるが(android) macのsafariからだとgpt-4o無いな?androidで開いたチャットの継続で使えばいいか? >>390
Opusの方がエンジンはまだ上だと思う >>395
4oは長い文脈取れますか?
claude3で1番良いところは文脈一応全部取ってくれるところ… 無料gpt-4oソッコーでtoo many言われて使えんくなったわ プロンプト芸ってもう終わってね?普通に聞くだけで十二分なアウトプットがあるような pbs.twimg.com/media/GNe0lyfW0AAQ5Ek.jpg
x.com/emollick/status/1790098668147626043
これを見ると、やはりLlama3 400B+への期待感は大きい やっぱOpenAI焦ってるんだな
今更早いだけのモデルを出されても微妙だわ ChatGPT無料版、日本語UI(自動)モードが復活してる。バージョンは4だと言い出した。3.5かと念押ししても4ですと明言 専門的な内容についての推論はやっぱ無印4のほうに分がある気がするな
4oはいろんな意味でベースの底上げって感じだ PoeにSnowflake Arctic追加
Dense-MoEハイブリッドモデル 480B
(アクティブパラメーター17B)
poe.com/Snowflake-Arctic-T
ホストはTogether
コスト175 MusicFX使ってるね
aitestkitchen.withgoogle.com/ja/tools/music-fx Google Photos "Ask Photos"
Gemini 1.5 Pro コンテキスト窓 2M+トークンへ拡張
Gmail・Google MeetへGemini統合(今日からWorkspace Labsで利用可能)
NotebookLMの音声サポート
Gemini 1.5 Flash(Proより軽量高速のマルチモーダル、1Mトークン、AI Studioで利用可能)
Project Astra(AIアシスタント・リアルタイムで視覚も理解)
Imagen 3
Music AI Sandbox
Veo(ヴィオ・動画生成モデル) Google検索にAI Overview(AIエージェント機能)導入
Ask with Video Google WorkspaceのサイドパネルにGemini 1.5 Pro導入
Gemini Live(音声で双方向の会話)
Gems(カスタムボット、恐らくGPTs対抗)
Gemini AdvancedでGemini 1.5 Pro提供(2Mへの拡張は今年後半) AndroidのGeminiアプリはコンテキストを理解しより機能的に
Circle to Search
Gecko Nanoマルチモーダル機能追加(通話中に詐欺電話を検知するなど) >>415
訂正
Gecko Nanoマルチモーダル機能追加(通話中に詐欺電話を検知するなど)
↓
Gemini Nanoマルチモーダル機能追加(通話中に詐欺電話を検知するなど) PaliGemmaとGemma 2
セキュリティ関連の話に移ってきたので寝る つべに同時翻訳を実装するとか、自動で翻訳して他言語のページも検索してくれるるとかさ
そういうところからして欲しいんだけど、Googleは何かその辺やる気なさそうなのなぜなんや
そういうのあったら普通に課金するんやけどな >>396
ほぼ全部取ってくれるぞ
そのかわり文脈次第で死ぬほど遅くなる
GPT-4が一番重かった時期と同等以上の重さ とりあえずGeminiの2Mトークン版のウエイトリストに登録しといた 確かにつべの要約とかじゃなくて、AIによる翻訳と吹き替えができたら20ドル払う価値あるわ さっさと5出せばいいのに
やっぱ出せない理由があるか作ってないのかな どの企業も突出する事を望んでないんじゃないの
市場独占じゃなくて市場寡占を望んでる様に見える。
まあ現時点でそうなってる気もするけど >>404
openAIの優位性ってまだあるのかな? Googleはgpt-4に課金してる利用者を奪いに来て、
逆にopenaiは、無料のサービスを強化してるのは、
戦略として対照的で、この差が何なのか考えてしまったわ >>422
ライバルを大きく引き離してる状況のマラソンで、全力出して走る意味あるか?ちょっと考えりゃわかるだろ Gemini 1.5 Ultra来ないのか
Googleの発表も微妙だったな
Gemini 1.5 Proのトークン強化版出されても個人的にはうーんって感じだ
Claude継続 GPT3.5だったよね?いつ4に変わった?って質問すると、いっかい回答らしき文章生成してから全部消して、アナウンス見てよという回答になるな おめー3.5だよな?無料ユーザーも4使えるって誰も言ってねえしな!的な詰め方したら3.5だと認めたけど
認めた時点回答でGPT-4oの制限に達しました。10:51後.に制限がリセットされるまで、回答では GPT-3.5 が使用されます。とか出てきて草 Tokenizerに適当に会話放り込んだら1800トークンちょいくらいで制限かかったみたい ボイス機能が実装されたらコールセンターいらなくなるかもね イリヤ辞めて個人の研究に没頭するのか
サムが辞めるかイリヤが辞めるかってことだったのかあの騒動の結末は >>432
コルセンは知らない人間に怒りをぶちまけたいだけの人いるからなー イリヤ辞めちゃうんだな
アルトマン解任騒動とか色々あったけど
>>435
文章もそうだけどまだまだ生成AI臭さが抜けてないからクレーマー対応は出来ないだろうな Google I/O 2024基調講演まとめ AI一色、GPT-4oのような機能も
www.itmedia.co.jp/news/spv/2405/15/news094.html
生成AI搭載検索エンジン「AI Overview」(旧SGE)
GoogleフォトのAI機能「Ask Photos with Gemini」
Gemini 1.5 Proのアップデート
「Gemma 2」と「PaliGemma」
日常生活に役立つエージェント「Project Astra」
画像生成AI「Imagen 3」プロンプトから音楽ループを生成する「Music AI Sandbox」
テキストから動画を生成する「Veo」
AIを支える第6世代TPU「Trillium」
Google Cloudの「AI Hypercomputer」
「Gemini for Workspace」のアップデート
AIをチームメイトにする「AI Teammate」
自然に会話する「Gemini Live」
Gemini Avancedの強化
ようやくAndroidの話
責任あるAI開発の話 >>437
この記事にはGemsの話が抜けてるな
とにかくGoogleはSora競合のVeoといい、GPTs競合のGemsいい、OpenAIを包囲しつつAI全方位戦略という感じ Google I/Oの発表には入ってないけど
Google、Geminiベースの新WebIDE「Project IDX」をオープンベータで公開
www.publickey1.jp/blog/24/googlegeminiwebideproject_idx.html OpenAI chief scientist Ilya Sutskever is officially leaving / Who didn’t see this coming after he tried to get Sam Altman fired?
www.theverge.com/2024/5/14/24156920/openai-chief-scientist-ilya-sutskever-leaves
主任科学者の後任はJakub Pachocki imgur.com/i0q0oN7.jpg
坊っちゃんの全文を与えて、
「坊っちゃんが教師として赴任してから遭遇した出来事を項目別に整理して説明してください。」
Gemini 1.5 Pro
33秒
Gemini 1.5 Flash
Proの倍ぐらいの分量を出力してきて、40秒
確かに軽い 生成AIって進歩してるけど1回で途切れなく1万文字ぐらいガッと出力することは出来ないんだよな
数千字程度が限度
思ったよりしょっぱい 普段使うのは1.5Flash、100万トークン超えそうな時は1.5Proでよさそうか gemini 1.5 proってなんで普通に公開しないんだ?gemini ultraとかゴミ過ぎるのに デスクトップChromeにGemini Nanoを直接内蔵か
ありそうな展開ではある
Edgeは同じ方向には行かないのか?MSはちょうど小さいモデルを作ってるし 貼り忘れた
@Google
Starting in Chrome 126, Gemini Nano will be built into the Chrome Desktop client itself. So you'll be able to deliver powerful AI features to Chrome’s billions of users without worrying about prompt engineering, fine tuning, capacity and cost. #GoogleIO https://i.imgur.com/8k6hIJQ.png
Gemini 1.0 Ultraはもう1.5 Proに置き換わってる vertex AIとかで無料で1.5pro使えるのに、有料のAdvanceに入らないと1.5pro使えないってのはどういう事なんだ?
情弱から20ドル取るって事? 「OpenAIのスタッフがGPT-4oの新しいボイス機能をプレゼンする動画」をGoogleスタッフがProject Astraを使いながら見る動画
x.com/mmmbchang/status/1790473581018939663 英語の歌にカタカナつけて、なおかつリエゾン(リンキング)重視してって頼むとわりと近いの出してくれるな
これはかなり便利
claudeは著作権あるからってやってくれなかった >>218
Consensus CopilotがGPT-4oに切り替わったよーってメール来たわ 来週のMS Buildは主に開発者向けにいろいろあるだろうけど、Copilot関連の発表が気になる >>419
自己レスだけど少し違うな
申し訳AIが文脈を汲んでくれるようになっただけかもしれん 結局日本語処理能力じゃまだまだClaude 3 Opus一強なのか
GPT-4.5がでたとしてもOpusに並ぶか少し落ちるぐらいだろうしまだClaudeに課金する日々が続きそう https://i.imgur.com/nYV6ZHq.jpeg
GPT-4oのデータ分析は、とりあえず「分析して」ってざっくりとした指示でもそれなりにやってくれるから良いな
かつ速い
GPT-4tは、一旦こちらに投げてくる(一番右) Claudeは逆に文章的なものしか出来なくね?
箇条書きに良い感じにまとめるとか弱くてダラダラ喋ってくる感じ
4oぐらいのレベルに達していれば、小説やブログとかの物書きを除けば4oでいいかな >>451
GPT Storeのようにエコシステムを構築するつもりがあるのかどうか Gemini 1.5 Flashの大量にトークンを入力した時の処理速度は良いね 箇条書きで答えて欲しければそう指示すれば良いのでは?
しかし2つ契約すると月6000円も飛んでいく
トホホ PerplexityのCEOのX/Twitterアカウントのヘッダー画像がPerplexityの式になってることを初めて知った
x.com/AravSrinivas OpenAIの“アルトマン解任劇”を主導、チーフサイエンティストの退社表明が波紋 | WIRED.jp
wired.jp/article/openais-chief-ai-wizard-ilya-sutskever-is-leaving-the-company/ 見返してみたけど、ほんとにコンマ何秒かですぐ消えたな
@bioshok3
> 大勢(僕も)が見逃していたけど、次のフロンティアモデルがもうすぐ来るという情報がGPT-4oイベントの最後にあったらしい。しかもこの画像動画を見ると1秒未満しか写ってなくて瞬時に消えたけど、確かに
Mira Murati氏「今日は無料ユーザーと新しいモダリティと新製品に重点を置きましたが、私たちは次のフロンティアについても非常に関心がありますので、次の大きなことに関する進捗状況をすぐにお知らせします。」と言ってるじゃん!皆gpt-4oの性能で一喜一憂しているが、あくまでgpt-4oは応答速度とマルチモダリティの革新であって、皆が求めてる性能向上はもうすぐ発表しますよと最後ちゃんと言ってたのに誰も意識してなかった…
まぁすぐというのがいつなのかは不明だが、少なくとも数か月、数週間以内には出るんじゃなかろうか。 i.imgur.com/22YRtbE.jpeg
まあ口では確かにはっきり言ってるけど、こんなんほとんどの人が見てないw とりあえずはGPT-4oがChatGPTを使う人のスタンダードになるのかな
契約せずに使っている人が大半だろうしちょっと楽しみ claudeみたいにほんのり性表現を匂わせただけでガチギレしないのはいいよな 現状有料版のメリットなさすぎるから、すぐに次のモデル出してくれないと割り合わないわな
4o以上なら期待出来る 有料にするメリットはリアルタイムの会話、利用制限の緩さ、自分でGPTs作れる事
リアルタイムの会話は相当インパクトあるし、
無料利用者の裾野を広げれば、それなりにサブスクライバーも増えると見込んだんだろうな
いずれ出るGPT-5は有料にまず限定するだろうし
先々を考えても良い判断だと思う
command R試したんだけど、ハルシネーション出したとき、
虚構だという事を頑なに認めず、
読売だか朝日だかの有料会員でないと見れないページをソースとして示したり、
昔のテレビ番組で取り上げられたりしてるとか、
YouTubeで調べてみろとか言い出して
完全に振り回されたよ 図々しい発想かもしれないけど、もう無料でもブラウジング機能がないと、
普段使いで使う気がなくなってるんだよなあ
ブラウジング機能がない言語モデルは、使っても性能チェックだけで終って、
それ以降ほぼ触る事がない状態になる場合が多い i.imgur.com/WLW1iAN.jpeg
Stockmark 100b
フルスクラッチの日本語モデルで100bとは頑張ったな
いくつか試した印象だと、ハルシネーションを軽減するためにプロンプトの指示に従うことをある程度犠牲にしたように感じる
ビジネスドメイン向けみたい 今更、gemini 1.5 proの動画要約の素晴らしさを認識した
エラーは多いけど他じゃ出来ないしな Geminiは根本的な推論能力に問題があるのがな…… Twitterじゃ日本語では結構上位だって最近みるなGemini 1.5 pro
海外じゃ相手にされてないけど 1時間の動画突っ込んでブログ記事に変換、とかはGeminiが便利 2Mだから研修会の動画とか長すぎて見る気がしないのも要約できるようになるから楽しみ Gemini 2Mのwaitlistは登録したけど、Imagen3とVeoは入力項目が面倒で登録してないわ
まあGeminiだけでいいんだけど イリヤと一緒にヤン・ライクも辞めて、OpenAIのスーパーアライメントチームはどうなってしまうん? >>386
ここに公式のコメントがあった
もうちょっと待ってねと
help.openai.com/en/articles/8554397-creating-a-gpt
GPTs for paid users are currently powered by GPT-4. GPTs for paid users will switch to use GPT-4o in the next several weeks. トークンが1Mとか言っても、1000文字ぐらいですぐに力尽きるんだが
これみんな納得してんの?? 応用技術者の問題やらせたら無料分使い切ったわ
しかも回答殆ど間違ってた >>482
Copilot「大丈夫やで!」
copilot.microsoft.com/sl/fVvHQhXDgtg 声のやつって声色(こわいろ)も識別して質問者の感情の起伏をとらえることができるん? そう言ってたね
デモでは荒い息をして見せて、「掃除機みたい」とか言わせてた
でも息は声色じゃないよねーとは思った だとしたら文字ベースの時よりもすげー計算量増えるよなぁ…
声紋というか声の周波数の微妙な変化をとらえ感情の状態をプラスαとして余分に読み取る計算を追加したってことやし… i.imgur.com/hpsWq2g.png
chat.lmsys.org 2024-05-15更新
Categoryを変えて比較すると、
- Llamaは英語で強い
- Qwen・Yiは中国語で強い
- Mistralは仏語で強い
- ClaudeはExclude Refusalで少し改善
の傾向は変わらず >>491
東大イライザは日本語が苦手で英語が得意だから英語で質問してほしい。前は日本語に特化(集中)してると回答したじゃないかと質問したら
今も昔も日本語に特化してトレーニングした覚えはない!何度も確認(肯定・否定の両面から)質問を行っても清々しい放言に感動した
辛辣CommandR+に質疑応答を全て読み込ませたら「スタートアップ企業にありがちな買収までのフェイク商材だったんじゃね?」回答ワロタ AIに英語で質問したらすみません英語話せませーんって言われたらきっと微妙な気持ちになるな そろそろGemini Advancedの2ヶ月無料権使おうかな ChatGPTのBlocks & Stateがロールアウト始まってるみたい
x.com/JeremyNguyenPhD/status/1790916442139034012 iOSの方でplusのプラン買ってるのにブラウザからだとGPT4oの応答制限かかるのが意味わからん gemini advanceってflashもろくな設定も使えないし入るメリットがなさ過ぎるな 最近特に思うけど、ほんとこのスレもガイジ多いな
もうAIが十二分に賢くなったし、流石に見る意味ねーかここ あれ、Google AI StudioのCreate new promptからのFreedom prompt無くなったのか 1000億パラメータのLLM、AIスタートアップが公開 フルスクラッチで開発 「ハルシネーションを大幅抑止」
itmedia.co.jp/aiplus/articles/2405/16/news172.html 宣伝は多いな、もういまさら突出した性能のモデルが出る訳もなく、
性能が上位のモデルでの寡占になりつつあるから、
最新のアップデート情報を追ってる人以外は、あんま見る意味ないかもね gpt有料版使ってるけどgeminiに切り替えた方が良いのかなぁ
詳しく分からないけどどっちの方が良いんだろ
youtubeの要約とかよく使うんだけど いま簡単にできるのはGeminiだろうね。
gpt4oのデモに45分動画の要約とかあったけどAPIなのかチャットで利用できる様になるのかまだわからん
あとGPT plus向けにもクラウドドライブ接続機能が正式にくるね 無料版Geminiで、設定-拡張機能-YouTubeをオンにしてから、新規のチャットで、YouTube動画のURLを貼って、要約して、と書いたら要約してくれた
ちなみに、要約って、動画の内容を文字で説明してくれることだよね?
動画の短縮版動画を作ってくれることじゃないよね? 文字で説明だね
短縮版動画の出力をやってるとこは自分の知る限りではないと思う YouTubeの要約というのは、トランスクリプトのテキストを読み込んで要約するということなら、既にGPTストアに腐る程たくさんある
GeminiのYouTube拡張機能も基本的には同じ仕組み
ちなみに動画を直接プロンプトに入力→要約させるのは、これとはやっていることが全く違う
(動画そのものをトークン化してNNに渡す)
Gemini AdvancedでGemini 1.5 Proが使えるようになったけど、今のGeminiのUIでは動画入力はまだ出来ない
動画入力をするならAI Studioを使う必要がある
(Poe経由でも一応できる) 文化庁の「AIと著作権に関する考え方」のパブリックコメント(個人)をGemini読ませてみた
gemini.google.com/share/160bef6a5558
資料は合計で約600kトークン GPTストアなんか行かなくてもbingのサイドバーcopilotで十分や OpenAI and Reddit Partnership
https://openai.com/index/openai-and-reddit-partnership/
RedditのAPIにアクセスするカスタムGPTはあるけど、公式に対応するなら素のChatGPTでもいけるようになるのか pbs.twimg.com/media/GNu6ektWQAEibVr.jpg
うっかりお漏らし?意図的?
x.com/btibor91/status/1791230680707285346 BardをGeminiに改称したのは悪手だったんじゃないかと思う
サービスとモデルを区別して呼びづらい お前らはどんなバージョン出てきてもどうせ満足しないんだから
今のを使いこなしときなよ GPTsの出力が速くなった気がするけど気のせいかな?まだ中身はGPT-4Turboだと思ってたけど…
chatgpt.com/share/67f472d4-85de-4008-97b0-85d3f2b1b6e7 Macアプリはいつ公開されるんだ?
公開されたらApple storeに出るだろうけど、まだ無いな。 adav2はExcelの指示がし易そう
数週間以内にリリースだから新しいDALLも来るし5月、6月もわくわくや >>521
おまいが持ってるのがIntel Macなら永久に出ないぞ
オレが探したから間違いない OpenAIのマルチモーダルの音声入力は、音声のLLMみたいのをゼロから作ってるのかな?
音声での学習で英語はいいとして、日本語や他の言語はどうするんだろう?
各言語ごとに音声の学習をするのかな?
テキストの翻訳みたいにはうまくできない気がするが
それとも喜怒哀楽の声色のパターンをある程度学習すれば、それに当てはめる形で、言語が違っても結構簡単に喜怒哀楽の分析ができるとか?
それと、メタのLLMを使ってる贅等が、音声のマルチモーダルをやろうとする場合は、音声のLLMをメタや他社がオープンソースで出してくれないと参入できないのかな? >>296
このGPT-4oのend-to-endってのが、いろんな反応を見てるとなかなか理解されていないように思う
今までの
音声入力→Whisper→テキスト→GPT-4→テキスト→OpenAI TTS→音声出力
これが、GPT-4oでは
音声入力→GPT-4o→音声出力
になったってことだよね imgur.com/OjpmA5S.jpg
Geminiのレポートに載ってたこの概念図と基本的な考え方は同じ >>531
これって、もう構築済みのテキストのLLM(gpt-4やgemini)に音声や映像の入力もつなげてるのかな?
テキストもゼロから入力する場合と、既存のテキストLLMに音声等を繋げる場合で、音声や映像の精度に違いが出るのか等、いろいろ興味が湧く テキスト、音声、画像、映像、以外にも、いろいろセンサーをつなげて入出力できるオープンソースのTransformerをどこかの社が出してほしいな >>531
i.imgur.com/tfY0Bg8.jpeg
Geminiのロゴは実はこれを表したもの でも、テキスト、音声、画像、映像だけでも、ユーザーが学習させられる機能があれば、競馬場で馬の様子をスマホで映してレース結果も学ばせて、学習を積めば100発100中の競馬予想AIが作れるよね ユーザーがAIを学習させられる機能をぜひ付けて欲しいな 人間ですら正解がわからんものは学習できないでしょ
アノテーションどうすんの >>537
本当にそれを切に願うわ
マイナーな日本のホラーの情報を聞く場合、どのAIも学習してないから、web検索させて会話する方法でcopailotを使うんだけど、不便で仕方ない
通常のGeminiは検索しても回答拒否。AI studioは検索してないっぽいし SnowflakeがRekaを買収するかも
finance.yahoo.com/news/snowflake-talks-buy-reka-ai-220238771.html
Snowflake Arctic
arctic.streamlit.app/
poe.com/Snowflake-Arctic-T
Reka
chat.reka.ai/chat
poe.com/RekaCore 学習に近い前提条件を設定したいなら「添付ファイルを前提に回答」で良いんじゃないの?
Geminiなら「@Google ドライブ ファイル名 を前提に〜を回答」かな 4oってGPT-4の軽量版じゃなくて3.5の超強化版って感じだよね pbs.twimg.com/media/GNw5E-CXYAAiG2p.jpg
無料ユーザーのモデルセレクターが単に「ChatGPT」表記に?
無料ユーザーはちょっと戸惑うかもな
x.com/btibor91/status/1791370371020488952 無知無課金ユーザーの流入でスレの質落ちてんな
そのうちここも知恵袋みたいな状態になりそうだ ChatGPT-4o まだまだ全然ダメだな
https://imgur.com/jBPsK0p.png
上杉達也は、アニメや漫画「タッチ」の主人公です。彼の特徴的な顔を持つ画像を選びます。次のステップは、彼が描かれているすべての画像を選択することです。
上杉達也は以下の画像に登場しています:
1. 上段左から2番目
2. 上段中央
3. 上段右から2番目
4. 中段左から2番目
5. 中段中央
6. 中段右から2番目
7. 下段左から2番目
8. 下段中央
9. 下段右から2番目
すべての画像を選択したら、「確認」をクリックしてください。 エロスレ以外が無いに等しいという盛り下がりなので変なレスすみません
http://www.jp.square-enix.com/magazine/top/fair/1406/pdf/140616_01_01.pdf
例えば、こういうPDFをAIチャットに読ませて、三省堂の店舗数を教えてみたいな
プロンプトを試行錯誤してるんですけど、
「これはこういうリストですね」っていう講釈を垂れて終了するか、
1ページ目だけ数えたのに「他のページは分かりません」とか言われて終了します…
こういうプロンプトならこういう回答してくるのか…みたいな知恵比べ状態で泣けてきます PDF→テキスト抽出→検索だけなのに
それをAIでやる意味が全くわからない… この手のAIに何を期待してるのか分からない質問たまにあるけど
適当なPDFビューアで開いて検索欄に「三省堂」って入れるだけで30って一瞬で出てくるんだから、AIを使う場面じゃない
それなのにわざわざAIを使ってって言うなら、AIを使いたい理由が分からないと何とも言えない OCR機能のレベルが分かるだろ
AIチャットが前処理なしでどの程度のことが出来るのか調べるのが無駄か? GPTsのベースモデル、GPT-4oに切り替わった気がする
速さがぜんぜん違う
アカウントによるかもだけど 俺のGPTsもめっちゃ速くなった。読むのが間に合わんから、速さは十分だな 確認する方法は有料で
従来のモデルなら3時間40回ぐらいで制限かかるから
それを超えてもGPTsが使えるかどうかかな? >>551
多分この人は、こういう調子でそれぞれの法人の店舗数を全部調べたいのだろうと想像する。 もしかしたら、住所とか電話番号も入っているリストかもしれない。いずれにしてもExcelに貼ってみることすらしないのは、IQが低いんだろうな。こういうので分かる。 https://chatgpt.com/share/9e59a7cf-6874-4a64-9040-15e5bd05b111
OpenAIのSuperalignmentへの取り組みに関する懸念について
限られた計算リソースで製品開発と同時に安全性研究もやることに無理があったのかもしれない 未発表のフロンティアモデルがあるそうだから今のうちに買いましておくか chatgptいらんこと付け足して文の長さ稼いで来ようとする
Geminiなんてイラッとさせる天才 たぶんリスト作りたいとかは、コパイロット有料とMicrosoft365に契約するのが簡単なんじゃないの
GeminiとGoogle Workspaceでも出来るんだろうけど、日本でGoogle Workspaceを使ってる人は多くなさそうだし
無料だとスプレッドシートに対応してないから、スプレッドシートから作られたpdfは読み込めない場合が多い 説明してるサイトも見当たらないし、Googleも説明してないみたいだから、
使い方が分かってない人が多いんだろうけど、
例えば、Geminiの同一テーマに対する複数の回答をGoogleドライブに保存して、
「複数のファイルの内容の共通点を説明」みたいな事が出来る。
こういう部分は添付ファイルよりGoogleドライブの方が便利だと思うわ
ただGoogleドライブを参照したセッションは共有できない。これもほとんどの人が知らないんだと思うわ >>561
@sama
i'm super appreciative of @janleike's contributions to openai's alignment research and safety culture, and very sad to see him leave. he's right we have a lot more to do; we are committed to doing it. i'll have a longer post in the next couple of days.
🧡
ヤンライクはOpenAIのアライメント研究と安全文化に貢献してくれて超感謝してる。辞めちゃうの寂しい。彼の言う通り、我々にはまだまだやるべきことがたくさんあるし、やると誓うよ。数日内にもっと長いポスト書くからね。
(はぁと)