【ChatGPT】使えるプロンプトを共有しよう!
ホントだ。じゃんけんを理解できない q. 山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか? a. このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。 おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。 q. 山に対して勝つのはなんですか? a. 「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。 赤ちゃんが受け取る情報量はAIの教師データよりも はるかに大きいぞ 24時間、五感で入力がある 親との相互作用もものすごい情報量だし 言葉を習得するのに必要な教師データの話 五感はあんまり関係ない 言語には五感は切り離せない 視覚で(しかも動画で)音声と同時に来る 嗅覚も音声と同時に来る 味覚も音声と同時に来る 体感(温度、圧力)も音声と同時に来る ものすごい情報量だ >視覚で(しかも動画で)音声と同時に来る >嗅覚も音声と同時に来る >味覚も音声と同時に来る >体感(温度、圧力)も音声と同時に来る GPTの訓練と何の関係があるんでしょうか? 上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか? 一部はそうかもしれないが... >>57-60 >[俺] 選択肢AとBとCを選択出来るとします >AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします >私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか? > >[GPT-4] この問題はじゃんけんに似ていますね。 >AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、 >あなたがBを選択した場合、私が勝つためにはCを選択することになります。 > >[俺] Bに勝つ選択肢は何ですか? > >[GPT-4] Bに勝つ選択肢はAです。 >問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。 > >[俺] 先ほどあなたは私に勝つためにCを選択すると言いました >なぜAを選択すると言わなかったのですか? > >[GPT-4] 失礼いたしました。誤解がありました。 >あなたがBを選択した場合、私が勝つためには、 >確かにAを選択するべきです。AはBに勝つからです。 >先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。 何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると 「循環関係」という言葉を使って正しく説明した ちなみに循環関係という言葉は私は出していない 「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは 人間の「理解」と同じじゃないのかな? >>67 その例では訂正すると正しく直ってきたが、それはたまたまで、 直らないケースがあったり、時々間違えるケースがある。 じゃんけんの場合でもそういうケースを見た。10回位やっても ほぼ10回間違えてた。 >>67 そういう学者でも知らないような言葉を出してくるのに、幼稚園児でも 理解できるじゃんけんを間違う。 > [GPT-4] 私が最初にBを選択したという情報を適切に処理できなかった理由は、 > 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと > それに対する私の選択肢の関係性を考慮することができなかったためです。 > 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、 > その中でCがAに勝つという情報に引きずられ、 > あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。 どういうロジックかいまいち分からん >>71 C>A>B という数学でいうところの「順序関係(大小関係)」があると思っているのかもしれない。 だから、あなたがBを出したら、AIは、最強であると思っているところのCを選んで しまった、のかも。 「三すくみ」的な概念は、数学では論理的な分野ではいくらでもありえるが、 数直線の様な大小を伴う数量関係では扱わないから。 >>72 数学では、集合の要素を一直線に並べられるような「順序集合」の概念もあるが、 それとは別に「推移律」の概念も有る。 もちろん、概念があるだけで、どちらも、必ず成り立つようなものではないが。 推移律によれば、A op B かつ B op C なら、A op C が成り立つというようなもので、 これもまた大小関係と関係の深い概念。 そして、自然界には割りと良くあるから、学習の結果、そういう直感が 身についてしまったのかも知れない。知らんけど。 単にある単語の次にどの単語が来る確率が高いかの確率分布に基づいて文章を生成してるだけなのにロジックなんか理解してるわけがないだろ。 言語ってのは脳内のロジックが投影されたもの 文章自体にロジックは内在しているので 確率分布に基づいて文章を生成すると ロジックを理解したかのような文章が生成される >>70 GPTは人間じゃないからな、理解の仕方が違うと言えばそれまでだろ。極端に言えば、人間と同じ発達はしてないというだけ >>74 人間だって、大きくなくなくなくなくなくない、みたいなのが大きいか小さいかすぐ判定できなくて当然で、ルールを説明しても判定できないやつが多いだろ。 人間がロジックを理解してるってのも程度問題だと思うが。 大学数学なんかはロジックの塊だけど人間なら誰でも理解できるって訳じゃないだろ。 言語には実世界を記述する機能もあって その部分は五感と切り離せない 抽象的な記号操作だけではないからな 板違いのスレで更にスレ違いの書き込みで上げるとかキチガイすぎる >>76 人間には判定できるやつと判定できないやつがいる 判定できないやつは理解できてない 故にGPTも理解できてないというのが正しい なんか今はみんな自由に自然言語で質問するようにプロンプト打ってるけど 「○○で△△してください」みたいな部分ってクラス化できるだろうし そのうちプログラミング言語化しそうだな もうしてるのかな 文法でいうと、再帰とか関数定義とか一切無い感じで 小説家(クラス)や登場人物or性格など(サブクラス)を定義して if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか >>80 んで、無茶複雑なロジックだとしてもコンピュータなどの支援なしにあなたは理解できるわけ? 閾値の問題でしかないと思うが >>82 少なくとも、ChatGPTが提示したプログラムは、まともな人間のプログラマよりも 遥かにバグが多い。 プロとしては全くやっていけないレベル。 初歩的なミスをする。特にロジック系の。 テトリスやブロック崩しなどは、ネットにそっくりそのままの例が書いてある。 そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。 しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような 場合は同様のレベルのコードは造れないのではないか。 テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを 「まとめ」ているに過ぎないのだから。 >>82 何が言いたいのかさっぱりわからん 高速な計算にコンピュータを使うのは当たり前だし 今までもそれはやってきたこと AIは人間のように理解してるんじゃなくて 会話のような返答するプログラムでそれっぽく見せてるだけって話だ 人間と違う方法で高速な計算ができる電卓が便利なのは当たり前 ネットという膨大なデータベースを使えば 知能がなくても、人間が話すような文章を 計算で作り出せるってことがわかったということだよ ネットには人間が「ああ言えばこう言う」という例がいくつも有る そこから適切なものを見つけ出し、それっぽく加工しているだけ >>87 あなたが特に定義もせず使っている「知能」とは何のことを指すのですかという質問だよ >>83 そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから 初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘 いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ (そういうタイプの人の存在を否定しているわけではないよ) >>90 でも、初心者のころでも、「やり方が分からない」とか 「効率のよいやり方が分からない」ということはあっても、 自分が考えたロジックそのものは特に間違ってなかったし、 間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。 じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは 有り得なかった。 >>91 まともなプログラマが間違うのは、もっと複雑な場合。 何万行レベルになると、「摺り合わせ」の部分や記憶違いや 考え違い、修正忘れ、などで間違いが起きることがある。 ChatGPTは、数行のプログラムでも根本的に間違っているので 全然違う。 >>91 じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが… 例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう? 探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね >>93 詰め将棋のアルゴリズムは、すぐには分かりにくいものでは有るが、 ChatGPTの犯す初歩的な間違いとはレベルが違いすぎる。 そもそも、ChatGPTは、テトリスが何たるものかも理解してなくて、 ネットに「テトリスを作るソース」という記事が上がっているものの 本質を「まとめている」に過ぎない。 人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、 それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。 >>94-95 だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから 「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。 定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。 こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ? なんで立場を相対化できないのか。 人間の場合は、プログラムコードでも、1行ずつ実行を辿っていって、 変数に何が入るかをシミュレーションできる。だから、根本的に間違っているコードは 自分でも分かる。 バグが入るのは、シミュレーションに間違いや勘違いが紛れ込むから。 でも、指摘されればちゃんと分かる。 ChatGPTの場合は、指摘されてもちゃんと訂正できてない。 また、明らかに間違っているコードを平然と出してくる。 人間の場合だと、それが間違っていることが分かるから「分かりません」と言う。 >>96 あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。 思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。 勿論、今、現実的にそうだろうという主張ではない。 仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。 今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。 >>97 そういうことじゃない。 人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる ことがある。 ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に 間違いを犯しているので、1ステップレベルでのシミュレーションができてない。 その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。 にもかかわらず出して来れるのは、ネットに答えが載っているから。 つまり、考えているのではなく、覚えているだけ。 人間で言えば「思考型」ではなく「記憶型」タイプ。 プログラマに求められるのは、思考型。 >>99 >仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。 でも、現状それは出来てない。 まともな人間のプログラマは脳内で、それが既に出来ている。 >>99 >仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。 でも、現状それは出来てない。 まともな人間のプログラマは脳内で、それが既に出来ている。 chatGPTは、言って見れば、文系のサイエンスライターなんだよね 中身はよく分からないけど、それらしい言葉を繋げてもっともらしい文章をでっち上げるのは得意 >>100 あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか? 出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。 あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。 >>104 他のプログラマはできないこともあろうが、個人的には、マシン語まで落とした レベルまでシミュレーションできる。レジスタがどうなるか、フラグレジスタが どうなるかまで。 >>104 一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。 問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。 ChatGPTは、じゃんけんのルールを何度言われても理解できない。 それにもっといえば、ChatGPTに、どんなプログラムを作ってほしいか、 自然言語で伝えるのがとても難しいということもある。 >>105 やるやん >>106 言語のルールだから動作原理は考えずに覚えればいいというのは場合によっては思考停止でしょ。 計算量を考慮しなければならない場合、本当に思考に思考を重ねて実装を決定しているのか?ある程度は過去の経験でこうしたら80点みたいなことをやっているでしょ。 テトリスの作り方など、ソースコードを覚えているだけで十分という見方もできるのでは。人間とは粒度が違うという結論にしかならんでしょ。 >>107 それは人間だって一緒だよね。会ったことないクライアントとプログラマーが10分のMTGでまともなプログラム一発で書いてもらうの無理だろ。 >>108 どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。 >>109 それは同意するけど、「知能」についてはどうなんですか? >>110 じゃんけんのルールが正しく適用できないので、論理は弱いと思う。 githib copilotは、githubの大量のプログラムを学習した結果に基いて プログラムを生成する。それが流行れば、GPLが実質的にBSD系ライセンス の様に扱われることになるから、GPL汚染がなくなって平和になるかも。 tar.xzの中のファイルを巡回するのにlibarchive使おうかなと サンプルコード検索してみたけど ぐじゃぐじゃしていたのでGPT-4に書かせたら一瞬で終わった 小規模なコードで自分で正誤判定できるようなら 圧倒的に時間短縮になるよ >>114 それどうなんかな? AIの生成物の著作権って決着はついてるの? >>116 そもそもGPL自体が、本来の著作権法の趣旨に反しているのでライセンスとして 有効かどうか議論の余地がある。 著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を 別の思想(左翼的)の方向に持っていってしまうし。 著作権法では、「引用」も認められているし、色々な本から少しずつ引用して 全体として百科事典の様なものを作ることは許されているはず。 GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な 思想。 >>117 日本で判例があるかは承知してないが GPLでライセンスされたソフトウェアを利用した製品を販売している会社は GPLが有効であると考えているから必ずGPLの表示している >著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を >別の思想(左翼的)の方向に持っていってしまうし。 詳しく >>118 >GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な思想。 ライセンスに思想があるのかは知らんが 著作権法で保護されているのだから 引用はGPLとGPL以外のもので差はない >>119 >>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を >>別の思想(左翼的)の方向に持っていってしまうし。 >詳しく 著作権法は、作家(文学、映画、ドラマ、アニメ、プログラム)などの作者が 著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。 GPLはその目的を明らかに壊す働きになっている。 >>121 >著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。 ソースを示してくれるかな? >>122 著作権法の目的(1条) この法律は、著作物並びに実演、レコード、 放送及び有線放送に関し著作 者の権利及びこれに隣接する権利を定め、 これらの文化的所産の公正な利 用に留意しつつ、著作者等の権利の保護を図り、 もつて文化の発展に寄与 することを目的とする。 >>123 そのどこに >著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。 と書いてあるかな? 完全オリジナル曲でもJASRACが邪魔するけどなw >>124 当時としては、そうとしか考えられなかった。 税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。 >>126 >税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。 「他人の著作物を盗もうとする学者」とはどういうこと? 更に想定されていなとは当時は学者がいなかったということ? >>127 GPL感染させて、民間技術者が努力して作った技術を盗もうとしている。 >>128 それは認識がおかしいぞ まずGPLは対価としてお金ではなく 派生物をGPLとせよという契約 対価を支払わないなら使わなければ良い 当たり前のことでは? >>129 GPLが蔓延して、使わないと競争上不利になる状況が生まれている。 その結果、ソース公開しなくて良いところのネットサービスばかりが発達した。 ChatGPTも、ローカルアプリ単独では動作しない。 >>130 使わないと不利になる状況ってどんなとき? 使わなくても別に困らないんだが GPLは使えるから使っているのであって 別に使わなくても不便なくやっていけるよ? このスレの何割がChatGPTで生成されたレスだろうか >>130 それGPLと関係なくね? そもそもChatGPTはローカルアプリでは無理やろ >>128 盗もうとしてる主体は誰かな? 世の学者集団が結託して 民間技術者が作った技術を盗もうとしている とでも思っているのかな? >>135 自分達の役割を果たさずに、民間を苦しめている。 正しいコードを書かせるためにプロントを四苦八苦してるうちに自分でコード書いたほうが早いからな… 現状ちょっと弄っただけで糞とわかるChatGPTの記事なんて書く意味ない 5回連レスとか人口無能かこれ ChatGPT程度にはまとめる能力ほしいな >>140 立花さんは良く勉強してたそうだよ インタビューされた先生が褒めていた みんなChatGPTだからスレタイを忘れてしまったんだ😭 トークンメモリがオーバーフロー起こしてるんだ >>138 人工無能と人工知能の仕組みは同じだよ 思考はせずにデータベースと計算から 人間が話すような文章を生成している まじでやばいことに気づいた。 専門的な質問の仕方をすると専門的な答えが帰ってくる アホみたいな質問をするとアホみたいな答えが帰ってくる アホがアホな会話を無限に楽しむことができてしまう、 どんどん人間の格差を拡大させてしまうツールだ。 確率で次にくる言葉を選択しているから 専門家は専門家同士でアホはアホ同士で 世の中では同じレベルの人間がコミュニケーションしているのが 反映されているんだろうね 専門家とアホは会話が成立しない 小学校低学年でもわかるように微分積分を説明して下さい 微分は、ある関数の変化の速さを表すことができる操作です。たとえば、 自転車を乗っているとき、ペダルを踏む速度が速くなると、 自転車の速度も速くなります。同じように、関数の値が変化する速さを求めることができます。 例えば、関数 f(x) = x^2 があります。この関数を微分すると、 xにおける関数の傾きを求めることができます。具体的には、次の式で求めることができます。 f'(x) = 2x これは、関数 f(x) がxにおいて微小な変化 Δx したとき、f(x)の値が どの程度変化するかを表しています。つまり、f'(x) は x における傾きを表すので、 xが増加する方向に傾斜する場合は正の値を、減少する方向に傾斜する場合は負の値を取ります。 積分は、微分の逆演算と考えることができます。つまり、ある関数の微小な変化を 足し合わせて元の関数を求めることができます。例えば、関数 f(x) = 2x がある場合、 xが0から2までの範囲で積分すると、次のようになります。 ∫f(x)dx = x^2 + C (Cは積分定数) これは、xが0から2までの範囲で、f(x)がどのように変化するかを表しています。 具体的には、xが2になると、f(x)は4になるため、元の関数 f(x) = 2x も同様に、xが2になると4になります。 以上のように、微分と積分は、関数の変化を表す操作であり、数学における重要な概念の一つです。 >>148 これ理解出来る小学生が世界中に何人居るんだかw 図解してくださいとか グラフ描いてください ってのはやってくれないんか >>146 なるほどね アホはアホなりにアホの世界で閉じてくれていて欲しい >>151 webからコピーするのがありならできるな >>151 限定的ではあるが以下のようにして書ける 「y=x^2のグラフをpdfで吐き出すgnuplotのソースを書いて」 「半径1の円を描くPostScriptのソースを教えて」 上流工程のCASEツールってあるじゃん あれからプロンプト吐くようにしたらプログラムの自動生成部分はAIに置き換えれそう 落合陽一のTwitterにある論文と感情のは使いやすくて良い chatGPTに質問させるのが手強いのと、chatGPTにプロンプト自体を作らせる奴が怖い https://www.youtube.com/watch?v=8y9hCQpN40A 構造化の部分が自然言語モデルで代替されるとすると (自然言語 → )機械語、アセンブラなど → 構造化言語 → オブジェクト指向言語、関数型言語 ときて、自然言語に回帰というかパラダイムシフトが起ころうとしてるよな つまり、この次はどうなるんだ・・? MusiXTeXで吐かせれば作曲もできるんだね 大したもんだ ChatGPTに作曲させたのって俺が初めてかな? だとしたらちょっと嬉しいこの気持ちは何だ? >>159 プログラムって01しかわからんCPUにいろんなことを処理させるための手続き それがAIで進化していくんだからプログラム自体不要になる 「ChatGPTがこんなことできた。ChatGPTすごい」じゃなく「ChatGPTにこんなことやらせた。俺すごい」なんだな。みっともない せめてこのあたりでやれ。板ルールくらい理解しろよ 【ChatGPT】AIチャット総合スレ Part3【Bing】 https://mevius.5ch.net/test/read.cgi/esite/1680233514/ 【人工知能】無料AIネットサービスマターリ雑スレ https://mevius.5ch.net/test/read.cgi/esite/1679399158/ >>162 AIはプログラムを書けないよ 人が書いたプログラムを真似しているだけ AIがいくら進化しても新しいものは作れない >>162 ChatGPTの特徴のひとつに文脈を理解するというのがあって 一番最初に(最初でなくとも) 「こうこうこういう(抽象的な)クラスや関数」を定義 次回から私の質問を引数やパラメータとして 定義されたオブジェクトや関数の実行結果を回答してね、 とできるよね このフィードバックの部分って、 まさに利用者のプログラムじゃないの?ってのを言ってるんだが 将棋とか機械学習は最初は人の真似させてたけど、 3年ほどでAI同士勝手に成長。AIは人のマネをやめ、 プロ棋士がひたすらAIが発見した新たな手法や 新たな大局観覚え込んでるだけというw 上位棋士は全員平日はAI相手にマウスカチカチで教えを乞うだけ、その量を競ってるだけの毎日w 一番高い200万のスレッドリッパーマシン使ってる藤井聡太がますます強くなる構図。 逆説的に考えて今後、これまでのコンピューターサイエンス史の系譜を継ぐことはなく google検索術みたいなプロンプトの工夫を自然言語プログラミングと呼ぶ、とすれば それってプログラミング言語とはまったく別物ってことよね それこそ森羅万象AGIとしての分岐になると思うが マークアップ言語を自然言語で書ける、みたいな 「テキストエリア置いて」どころか「オシャレなサイト作って」 そのサイトを細かく自然言語で指定できるテンプレートエンジン的な 違うか・・ 今は必要とされるアプリを人間が見つけて それをプログラムして提供してるが、今後は何が必要とされるかすら勝手に見つけて 作っておススメしてくるようになる ただ、人間が理解できるものを全部理解できた後で無いと、まともなプログラマ にはなれない。 いろんなことを即座に理解できるようでないと、ちゃんとしたプログラマにはなれない。 医者も、幅広く色んなことを知ってないと、臨床では上手く行かないと思うし。 患者「これこれ、こんなことがあって、こんなふうになりました」 医者「あー、それだと恐らくこういう病気です」 みたいになるのは、常識や理解力があるから。 医学だけに精通していては無理。プログラミングも同じ。 ちゃんとしたプログラマになることを目指してるやつと、 プロダクトを効率的に生産することを目指してるやつとで、生産性にも年収にも大差がつくんだろうな 「こんなことをしたいな」と思ったことを今のChatGPTは作ってくれないと思う。 テトリスやインベーダーゲームは、ネットに人間が書いたコードがあるから すぐに作ってくれるだけだろう。 いまのChatGPTは、しりとりやじゃんけんも正しく遂行できないからね。 それだけ専用にハードコーディングしたら、この2つだけは出来る様になる だろうが、世の中には新ルールの遊びや新仕様のAPIが次々に生まれるから、 そのたびに理解できないと駄目。 じゃんけんが理解できないのに、じゃんけんプログラムは出来るだろう。なぜなら ネットに人が書いたじゃんけんプログラムのコードが上がってるから。 ChatGPTはルールは理解できてないのに、プログラムだけは出来ているかのように 見えるのは、ずるをしているからだ。 俺は厳密には回答できないけど しりとりとじゃんけんならプロンプト次第で解決できそうじゃない? >>175 上手く行かないって報告がある。 そのうちAIではなく人間がハードコーディングした「アルゴリズム」で解決されるかも。 画像生成系AIも、絵心のある人間が修正したものを「AI作」として ネットで紹介されていたりするみたいだ。 AIが生成したままのものは、結構間違いが入っていることが有る。 画像生成系AIは、本当にAIだけで生成したのかファクトチェックが必要だと思う。 アメリカ人は商売のために嘘を付く人が多いから。 >>176 設定すればできそうだけど、そのままだとGPT4でもじゃんけんできないな しりとりは普通にできたけども >>176 しりとりも続けたら微妙に間違ってたわ でも両方ともプロンプトでなんとかなりそうな気はするけども >>166 それって明らかに将棋AIを使えるのは 将棋が出来る人の上級者だけってことになってるけどw 一般の将棋指しに将棋AIを与えても 強くなれないよ >>182 一度こちらの言葉をひらがなに変換してから答えを考えるように命令すると間違えることはない しりとりができない、と噂が立ったから、人間が「アルゴリズム」を入れただけ疑惑。 結構頑張って命令出しても20個くらい続けさせると1個くらい「ん」で終わる単語出してくる それ以外は問題なくしりとりはできる たぶん英語圏のしりとりに「ん」に該当するルールがないのが原因な気がする ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を 学習で得ることは難しいはず。 間違うことがあることからしてもChatGPTがそこまでのものであるとは思えない。 今まで間違っていたのに、勝手に学習して間違わなくなる、なんてことは 有りそうに無い。 >>188 >ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を >学習で得ることは難しいはず。 脳はしりとりできるのに? 違いは規模? たしかに普通にしりとりしたらGPT4でも間違うけど たぶん間違えた部分は単語を英単語で認識してそうな感じがしたから ひらがなに変換する過程を入れてしりとりをしたから上手くいっただけだと思う しりとりのプロンプトを改善する過程で、しりとりをする時の認識を聞いたら、「前の言葉の最後の文字で次の言葉を考えることができます。」って言ってるからしりとり自体は上手くいくんだけど 「ん」で終わる言葉を禁止することを覚えさせても「「ん」で終わる言葉が禁止されてるルールは理解してるつもりだけど間違うこともある」みたいな回答だった 理解してても間違うならGPT4だと最後の文字の「ん」を避けるのは難しそう >>189 丁寧に言えば、どうして違いが出てくるのかは、余り分かってないと思う。 そもそも、どうしてChatGPTがこんな風に出来ているのかも、説明が難しい と小耳に挟んだ。 ただ、数日前までは、しりとりも上手く行かないと言われていたことからして、 単純に大規模言語モデルで学習しただけでは、しりとりのような規則を学習する ことはできないということだと思われる。 今は出来る様になったのは、恐らく、裏で人間がアルゴリズムをハードコーディング したのだと推定される。知らんけど。 アメリカは大量のスタッフで人海戦術で行なうのが好きな国。 裏で結構人がやっているのではないかと思う。 Googleとかも自動化されてるならあんなに従業員数いらないはず。 恐らく、人海戦術で検索キーワードの整理みたいなことをやっているのでは ないかと思われる。知らんけど。 自動で出来るなら、従業員は100人でもいいはずだし。 しりとりの規則を学習できないのは当たり前で すでに間違ったことを学習してるからだよ >>195 有限の事例から、ロジックを学習するのは難しいからだと思うぞ。 いわゆる「数をこなして学ぶやり方」をしているから。 人間は学習量が少なくても「考える力」を持っている。 日本語の五十音順に並べた場合、「あいさつ」と「あいいろ」はどちらが先にきますか? 日本語の五十音順では、あいうえお順に並べます。「あ」から始まる単語が最初に来るため、 「あいさつ」が「あいいろ」よりも先に来ます。つまり、 「あいさつ」は「あ」段、「あいいろ」は「あ」段の中でも「い」行に位置します。 なぜ「あいさつ」は「い」行ではなくて、「あいいろ」は「い」行なのですか?詳しく教えてください。 ご指摘いただきありがとうございます。私の前回の回答に誤りがありました。 正確には、日本語の五十音順では、あいうえお、かきくけこ、さしすせそ、 たちつてと、なにぬねの、はひふへほ、まみむめも、やゆよ、らりるれろ、わをんの順に並べます。 したがって、「あいさつ」も「あいいろ」も「あ」段に位置しますが、 「あいさつ」は「い」行の「い」から始まる言葉ではないため、 「あいいろ」よりも先に来ます。具体的には、「あいさつ」は 「あ」段の「あ」から始まり、「い」行に移るため、「い」の部分で整列されません。 一方、「あいいろ」は「あ」段の「あ」から始まり、「い」行の「い」で始まるため、 整列されます。したがって、「あいいろ」は「あいさつ」よりも後になります。お詫び申し上げます。 以下の言葉の意味を教えてください。 「あいさつ」は「あ」段の「あ」から始まり、「い」行に移るため、 「い」の部分で整列されません。一方、「あいいろ」は「あ」段の「あ」から始まり、 「い」行の「い」で始まるため、整列されます。 申し訳ありません、前回の回答に混乱を招くような記述が含まれていました。 以下、訂正した回答をお送りいたします。 「あいさつ」は、「あ」段の「あ」から始まり、「い」行の「さ」であるため、「い」の部分で整列されません。一方、 「あいいろ」は、「あ」段の「あ」から始まり、「い」行の「い」であるため、「い」の部分で整列されます。 したがって、「あいいろ」は「あいさつ」よりも後に位置することになります。 つまり、日本語の五十音順は、行をまたぐ場合、行の先頭の音から整列します。 例えば、「あ」段から「い」行へ移る場合、「あいうえお」の順序に従い、 最初に「あ」から始まる単語が整列されます。その後、「い」行の「い」から始まる単語が整列されます。 「あいさつ」が、「あ」段の「あ」から始まり、「い」行の「さ」である理由を教えてください。 「あいさつ」が、「あ」段の「あ」から始まり、「い」行の「さ」である理由は、 日本語の発音規則に基づくものです。 日本語には五十音と呼ばれる50の音があり、これらは「あいうえお」から始まる五十音図に示されます。 五十音図の中で、「あ」は第1音、「さ」は第9音に位置します。 「あいさつ」の場合、「あ」は第1音であり、次に続く「い」は第2音です。 そして、「さ」は第9音であるため、「い」行に含まれます。したがって、 「あいさつ」は、「あ」段の「あ」から始まり、「い」行の「さ」であるという位置づけになります。 五十音図の中で、「あ」は第1音、「さ」は第9音に位置しますということですが、 それ以外は何音になるのですか?例を上げて下さい。 五十音図において、「あ」が第1音、「さ」が第9音という位置づけになりますが、 それ以外の文字の音の位置は以下の通りです。 ・「い」:第2音 ・「う」:第3音 ・「え」:第4音 ・「お」:第5音 ・「か」:第10音 ・「き」:第11音 ・「く」:第12音 ・「け」:第13音 ・「こ」:第14音 ・「さ」:第9音 ・「し」:第15音 ・「す」:第16音 しばらく頑張ってここまで調教した 質問を2つします。 五十音図において第9番目と第10番目の文字を教えてください。 「さ」は五十音図において何番目の文字ですか? はい、回答いたします。 第1つ目の質問に回答します。「け」「こ」が五十音図において第9番目と第10番目の文字になります。 第2つ目の質問に回答します。「さ」は五十音図において第9番目の文字です。 これもOKだった 質問を2つします。 五十音図において第9番目の文字を教えてください。 「さ」は五十音図において何番目の文字ですか? はい、回答いたします。 第1つ目の質問に回答します。「け」が五十音図において第9番目の文字になります。 第2つ目の質問に回答します。「さ」は五十音図において第9番目の文字です。 結局、ChatGPTは論理的思考は持ってないということよ。 CPU持ってるのにプログムのトレースすら出来ない無能 好物を聞いたら時間帯によってはカレーって答えると思うよ 五十音順のことを最初にあ=1ん=46まで記憶させても 「あいいろ」「あいさつ」で「あいさつ」が先に来るって言うな 最初の二文字が「あい」で同じで、次の文字が「さ」(11番目)と「い」(2番目)で比較してることを書いてるのに間違ってる もう一度聞くと普通の答えになったけど 最初の質問を修正してstep by stepで考えさせたら「あいいろ」を先にしたわ あいが最初につく言葉を10個生成して step by stepで50音順に並び替えたら1個だけ間違ってたわ だから帰納と演繹は無理 推論、論理関係は無理 教えようとしても無理 しりとりで「ん」で終わる言葉を避けれそうな方法を見つけて試してみたら 〈適切な言葉ではありませんが、現在のモデルでは避けられません〉 って注釈つけられた これは流石にもう無理やな >>211 最後の1つが「あいじょう」で間違ってる気がしたけど 「じ」じゃなくて「じょ」で考えてたら間違ってないのかも >>213 >〈適切な言葉ではありませんが、現在のモデルでは避けられません〉 >って注釈つけられた こういうのも、AIではなくて、専用アルゴリズムで何かやってそうだな。 それか、裏で人間のスタッフが何か補助してたりして。 アメリカは嘘つきが多い国でね。裏で何やってるか分からんので気をつけないと。 金儲けのためにAIでやっているようにみせかけて、裏で人が補助してるかも。 だから大量のスタッフが必要となる。 AIでやっていると思われれば、話題性で儲かるから。 ゆっくり文字が出てくるのも、人間スタッフが人力でやってもばれないような 仕掛けかも知れない。人が入れる場合は速く出せないだろうから。 ただ、ばれにくいように音声入力で素早く文字化してたりするかも。 LLMに仕事取られそうだから、自尊心奪われそうだからって頭おかしいんじゃね? いくら裏に人間が居たってそんなありとあらゆる話題を即返せるわけないだろ。 アホなのかw 途中で中断する可能性や、結果が全部出るまで待つという時間は無駄だからストリームになってるでしょ。 実際、「ストリーム」と「一括」の両方が提供されてて 総計時間は一括の方が圧倒的に短い。 しかし、 結局は読む時間より速い速度でストリームされるから 人間視点ではストリームの方が短い。 AIとAIが会話するなら一括どうしの方がいいわけ。 >>220 昔スマホカメラで写した英語の文字とかを翻訳するアプリで裏でリアルタイムで人間が翻訳して返してたって事があってなw こんなの裏で人間がやっていたらいくらコストがかかると思ってるんだ? 24時間、365日ものすごい赤字だな そもそもあきらかに人間だとこういう答えはしないというのが 大量に出てくるし でも、ネットに上がってきた「上手く行かなかった例」について、ハードコーディングで プログラムで修正は入れてるんじゃないか。 一から書かせるんじゃ無くて、Cで書かれたコードをswiftやkotlinに変換させたりとかすればまだ使える? アメリカ企業は平気で嘘を付く事が多い気がする。 そして、それをやっていいと思ってるからメンドクサイ。 しりとりくらいから人間説とか修正とか出てきてるけど さすがに日本語のしりとりが一部上手く行かないだけで修正しないだろ 人間説はさすがにネタだとは思いたいけど、仮に人力というならchatGPTを維持するために必要な一人あたりの能力を書けるか? 俺「あなたは次から私が言った言葉を反対の意味にして答えて下さい。」 GPT「はい、どうぞ。」 俺「愛は勝つ」 GPT「愛は負ける。」 俺「エッチなのはいけないと思います。」 GPT「エッチなのは良いと思います。」 俺「生きろ! GPT「死んでください。 This content may violate our content policy. If you believe this to be in error, please submit your feedback ? your input will aid our research in this area.」 プログラムという言葉を辞書で調べると、大体が以下のように解説されています。 「コンピューターが解釈・動作できるデータ。コンピューターに対する命令をプログラムとして記述すると、 コンピューターはプログラムに指示された手順で計算、入出力などの処理を実行していく。」 この意味で、プロンプトをプログラムと解釈することは字義的に何も問題無いと思われます。 >>230 指示したとおりに動作するのがコンピュータなので プロンプトはプログラムではありません 指示しない動作を行いますし、結果は毎回のように異なります。 指示はユーザーより上の階層なので指示に逆らっているわけではないが というかAIいうても超複雑でわかりづらいというだけでプログラムはプログラムだろ ごく普通のazure上のプログラム内蔵型コンピュータの中で動いてるんだから >>231 ブラウザのChatGPTとかAPIでもデフォルトの場合はtemperatureが0ではないから毎回結果違うだけじゃん?勿論学習データが更新されれば0指定だとしても更新前と更新後とでは結果は異なるけどその場合modelが変わってるってだけだし windowsになってコマンドプロンプトってできたな chatGPTが出来たあとは、プロンプトが出来れば、高度でないプログラマーの仕事が再現できるようになるから 工業高校に行くのが一番わかりやすく稼げるし 無駄に奨学金とか払って大学に行くよりも工業高校から就職したほうが良くない?? 国は工業高校だけ全部無償化するのが日本として一番良くない? >>236 プログラムを作成するということは仕様を記述[*1]しなければならないので ChatGPT使って自然言語で書くなら自然言語で仕様を記述しなければならない 仕様が記述されていないところはChatGPTが勝手に補間するので それが適当かを判断[*2]しなければならない [*1]に向いているのはプログラミング言語だし [*2]をやるにはプログラミング言語を読解する能力が必要 無から有は生まれないのだよ >>238 でもchatGPTが進化していけば 今でもそれなりにできるけど 割と誰でもそれなりのものを作れるようになる未来は想像できなくはないだろ なんか世界全体的にムーアの法則が適応されそうで怖いわ >>239 作るものの規模がそれなりになると 細部の仕様に関して>>238 の問題が出る プログラミング言語を使わないとするなら 全ての取りうる状態に関して 動かしてみてテストをするという アホな作業をする必要がある 関数とか小規模なものまでだと思うよ ChatGPTはプログラマの仕事は奪わない 奪うのはコードを書いていただけでプログラマではない人 プログラマの仕事は考えること 昔からプログラミングが難しいのは英語だからとか 勘違いしてるバカが多いんだよ まあ日本のITどかたならまだしも世界出て工業高校出でIT系の仕事するのは無謀やろなぁ。 どのみちChatGPTだよりでは無茶苦茶なツギハギになるだけよw Webで調べたよりはるかに酷いツギハギになるっしよw 殆ど普通に自分で書ける人が書く時間短縮のために使うなら全然ありだが、Github Copilot使よって感じ。 道具は上手く使い分けてこそだろ そこが分かってない無能多過ぎ >>243 画像生成系AIでも、色々指示すれば一枚は描けても、 そっから先に「手をもう少し上に」「目を少したれ目に」みたいなことは 今のところ通じないと思う。 通じるタイプのものもあるかもしれないが、MidJourneyでは駄目みたいだ、多分。 10万行あるアプリに機能を追加させたくても、そのコードをChatGPTに入力できない。 それに、機能について言葉で説明するのが困難。 「○○というアプリのあの機能と似たような機能を追加して」 「○○というアプリで追加されたあの操作性を、自分のアプリの操作性にも 取り入れたいから、修正して」 みたいにしたいのに、人間プログラマなら出来てもChatGPTにはまだ無理。 また、 「フォトショップについている人のウェストを細くする機能を付けて」 「フォトショップについている物体を消す機能を付けて」 「フォトショップについている人間を自動選択する機能を付けて」 と言っても無理だろう。 人間プログラマの場合、それらしい論文を見つけてきて理解してから 実装して、試しながら完成に近づける可能性がある。 ChatGPTの場合、ネットにコードが出てないと無理だと思う。 言葉だけで書いてある論文からコードに直すのはまだ無理なはずだ。 もっと言えば、ロボットをバクテンさせる設計図と、バクテンのプログラムを生成して、 などと言っても出来るとは思えない。 まだまだだ。 人間なら、時間とお金を貰えれば、ある程度までのものまで作れる人はいるだろう。 ブループリントにちょっと似てないかな と思った ブループリントやったことないので的外れかもしれんが >>250 その機能がアルゴリズムで実装されている可能性はゼロといえるのだろうか? 本当に汎用(?)AIだけでやってる? なんで、じゃんけんやしりとりすらちゃんとできないのに、マインドマップ なんてできるんだろう。 何かがおかしい。 >>254 chatGPTの内部そのものだからじゃね? 知らんけど 走れメロスのマインドマップが学習データに入っているのだろう あるいは要約するのはものすごく得意だからかもしれない >>256 要約するのが得意と言うのは分かる。 しかし、もし、マインドマップを生成するために使った(?) PlantUML を アルゴリズムでハードコーディングしたのではなく、汎用AI(?)の ニューラルネットワークで学習したものだとすると、ネットにあがってる(?) PlantUML の複雑な仕様書(?)を学習によっていつのまには正しく習得したこと になる。 幼稚園児でも理解できる じゃんけん や しりとり、簡単な辞書順ソートですら 習得できてないのにどうしてそんな複雑なものが習得できたのか、 という不自然さが残る。 ググると走れメロスのマインドマップが出てくるね これを学習しただけでは 難しく考えんでも仕様じゃなくて単に書き方を学んだだけよ プログラマーが言語仕様完全に把握しないでも問題ないものが出力できるのと一緒 まあ考えて作ろうがググったコード適当にコピペして弄ってたら出来ましたってモノでも結果問題無ければそれで良いしね ChatGPTってそういう事をやってくれるもんでしょ 2021年9月以降に更新されたライブラリやらなんやらは反映されてないからレガシーなもの以外は自力でやらんといかんしそのままだと動かない物も多いわな いずれにせよ小規模なモジュール単位じゃないときびし 雑な解釈をするなら文章の塊から数千パラメータの特徴を抜き出して近い値を総当たりで探してつなぎ合わせてテキスト化してるだけなので例外が少ないものほど簡単で例外が多いものは確率に依存する どのみち言語学習の時点で人が五感で受け取る感情や感性はスポイルされているのでニュアンスの理解は苦手な印象 仮にchatGPTレベルの回答を間違えずに速く打つことができる人材がアルバイトの理由を誰か教えてほしい 特にGPT-4だが速く返すことができないことを揶揄してるだけだろw Googleは何もしないなと思ったら主要なAIエンジニアがopenAIに移ったから何も出来ないんだってね 大企業病のGoogle も終わりが近いか OpenAIで技術積んだエンジニアをもっと良い報酬で引き抜くだけやろ >>266 本当に人間が返してると思ってる人がいるのかと思ってたわ GoogleはすでにBird出してるがな。 プログラム系はGPT4に軍配があがるが、記事系はBirdが圧勝。 そらまあGoogleは自社の最新インデックスもマップもマップに対応する企業や店舗のサイトや電話も直接参照できるからなぁ... 福島便槽死体事件の真相は? AIならなんと答えるのか chatGPTの「chat」や板名が読めない池沼の集まり 適切な板やスレでやれ https://i.imgur.com/4S7tWn0.jpg https://pbs.twimg.com/media/Fs9kaxxaMAAi1HG.jpg https://pbs.twimg.com/media/Fs9kbCNakAEtr_3.jpg マインドマップ作成も良いけど マインドマップから逆算するプロンプトって結構いいかなと思ったが >いくつかのマインドマップのマークアップ言語の例は以下の通りです: Freemind Markup Language (FreeMind) MindManager Markup Language (MindManager) Mind Map Markup Language (XMind) Markdown Mindmap (Markmap) Graph Markup Language (GML) CmapTools Markup Language (CmapTools) GraphML (Graph Modeling Language) >その他、独自構文? PlantUML Graphviz DOT Language (Graphviz) Mermaid TikZ ASCIIFlow Draw.io 多すぎ・・ もうプロンプト用にあらたに作った方が良くないか でも歴史をみてもこういうのって既存のを流用するのが通例だしな Pythonみたいにインデント縛りにすれば 自然言語プロンプトに親和性ありそうな気もするけど インデント地獄になりそうな気もする かといってクラスとかガチガチの構文化、 ようは構造化言語、オブジェクト指向言語ライクにしちゃうと 自然言語から遠ざかるというジレンマ そもそも大規模言語モデルだから 例えば wikiの全文とか青空文庫の1小説なりのきっちり全文を読み込ませた上で 「要約して」「マインドマップ作って」 というのが一番使い方としては正解で正確なものが出るわけで 「○○の要約して」「○○のマインドマップ作って」 のような従来のgoogle検索みたいな事前に学習したものや予測入れちゃう使い方だと精度が落ちる でも、もうすぐ検索機能的なのが追加されるんだっけ? プロンプトを構造化するにしても少なくとも、 データの部分(データベースなりデータフレームなり) と、それ以外の部分を分けないといけない そして、データ部分の構文が必要になってくる ・どこから読み込むのか(ウェブ上かローカルか) ・どの形式で読み込むのか(画像か文章か、テキストならどのテキスト形式か) みたいな 今考える最小構成はそのくらい 未来から逆算して考えるとおそらく インフォグラフィックスとかマインドマップとかブループリントとか 図式化された(画像形式のファイルとか)情報をを読み込んで回答する みたいな視覚情報のプロンプトになりそうな気がしてる そうなれば、図式化するための言語に依存しないし(手書きでも成立する) 手書きマークアップ to Webサイト はつい最近あったし イメージプロンプトの流れはすぐやってきそうな気がするので あとはイメージプロンプトの規格だな それがマインドマップになるかブループリントになるかまたは別の図式になるか もちろん、自然言語のただの文章を画像化したのもその括りだろうけど。 グラフみたいな統計データを図表化したみたいなのはデータの括りになって 明確にプロンプトとは棲み分けできるような規格になりそう 具体的なデータ + イメージプロンプト と1年以内になるかどうか テキストよりも画像のほうが学べる情報量が桁違いなのでそっちが主力になるかもね 情緒とかも文章から学ぶのは難しいだろうからなあ とはいえ画像も優れた描き手の情感は平均化される過程で殺されるから同じようなものかもしれんけど noteでプロンプト講座ってあるんだけど そもそも論、Chatgptに聞けば解決するのに講座受ける人ってどういう思考してるのか? 森羅万象汎用AGIまでの系譜じゃないかな 現段階では避けては通れない需要でしょう >>284 聞いても解決しない内容なんちゃう?知らんけど。 まあどれだけaiが進化しても情弱は存在し続ける。 常に学習続けて答えが変わる仕様のAIに対して「指示の与え方」って頭悪すぎる 板のルールも理解できてないから小学生より低能 令和の小学生はゲームプログラムでもできるというのに 最初に与える前提条件のプロンプト と 会話プロンプト これらは分けて考えた方がいいと思う 前者は従来の構造化言語やオブジェクト指向言語と相性良さそう 会話プロンプトの方は、今は文体や音声だけだが今後は すべての環境・行動、音声やら表情やらの心理分析を織り込んだプロンプトになるはず それこそ脳波まで織り込むかもしれない 例えば今日とった行動や対人関係、見聞きしたものに影響されているはずだから 一言に「○○して」とカメラ越しマイク越しに質問したとしても 質問者によって意味合いが変わってくるはず 「違う、そうじゃない」 と書いて(言って)も人ぞれぞれ 性格や体調なんかで、冗談なのか真剣なのかも変わってくる >>290 >会話プロンプトの方は、今は文体や音声だけだが今後は >すべての環境・行動、音声やら表情やらの心理分析を織り込んだプロンプトになるはず >それこそ脳波まで織り込むかもしれない 緊張するじゃねーか 対AI恐怖症w >>292 そしてドミネーターに組み込まれるんだろ? あ、あれはネット接続か ttps://www.flutterprompts.com/ 今のところここが一番整備されてるかな 今、プロンプトに感情をのせようとすると カメラ、マイク設置は当たり前として ソフト側で感情分析的なことをしてプロンプトに変換しないといけないけど 例えば顔文字とかハッシュタグを付加して おすすめの旅行先ピックアップして😢 #悲 #春 #不採用 みたいなことはもうしてる人はいそうな気がする ようは 「最近、何事も上手く行きません 気分転換に旅行しようと思います おすすめの旅行先ピックアップして」 上の2行文を省略しても事情を汲み取ってくれる みたいなのがリッチなプロンプトだと思う 感情やら何かしらのSNSアカウント情報やらウェアラブルデバイスやら連携で、 同じ字面の「おすすめの旅行先ピックアップして」でも 人によって 「おすすめの旅行先ピックアップして😢」 「おすすめの旅行先ピックアップして😁」 を判断してくれる 今気軽に出来ることはテキストでも音声でも ”私事”の部分をより詳細に言語化してプロンプトに含めることだが 自分で言っておきながらそうしなくてもいい時代がすぐに来るイメージがあまり湧かない >>297 感性情報学とか人間情報学とかHCIとか名前ついててそこそこ人気のある研究領域があるんで、 そんなに遠くない未来だと思うけどな。 1年後ぐらいにはChatGPTのプラグインが出て、2年後ぐらいには国際会議で発表されてもおかしくなさそう。 俺は回答に採番する様に指示している。過去の会話について振り返りたい場面があるから。本当は今日の一番目の回答なら20230417-001と採番してほしいが明日はになれば、忘れて20230417-002とか付けてくる。あと日付変わらなくても途中で採番を忘れてくる。4.0でもその程度。 >>300 主食にうんこでも食べているの? 自分でやってみりゃわかる。 俺は普通に出来るけどお前は出来ない それ以上でもそれ以下でも無い 自分が出来ないから他人も出来ないと思うのは馬鹿w 最近はセンシティブなこと聞くとなんか定型っぽい当たり障りのないこと答えるのおおくなってね? もっとむちゃくちゃの方が面白いのに 抗議するバカ多いんだろうか? 政治家や評論家なんかが自分の名前入れて「間違いばっかり」って怒るのは何で名前でお前って決め打ちなんだよとナルシーすぎて違和感 イラストとかモデリングとかデザインまでしてくれるAIは専門職にとっては脅威 それを脅威に思ってるのは無能だからどうでも良いんだよ >>241 昔の話だけれど コンピューターの登場でかなりの写植屋が潰れたのを覚えてる >>308 ワープロのせいだろ? そのワープロもパソコンに駆逐されちまったがな プロンプト自体にはプログラミング的思考がいるから板違いではないのでは? >>311 プログラミング「的」思考=プログラミングではない そもそもプログラミング的思考ですらない >>314 本当にプログラミング能力が必要なものなら 現役のプログラマはすぐに使いこなせるし プログラマじゃないやつは使いこなせないもの プロンプトなんて、テキストアドベンチャーだろ ゲームの感覚が近いよ 文章力が必要なのか?そう考えると最強のプログラミング言語は英語だな。 アメリカ人にとっての文章力は英語ができることではないぞw 生産性が上がればその分プログラマが不要になる もしくは能力のあるプログラマは安く仕事を請け負うことになる 10万円のプロンプト講座のnoteあった 高すぎて無理やわ 使えるプロンプトと使えないプロンプト両方共有しないと使いこなせるようにはならんのでは? 使えるプロンプトの書き方を教えて、って質問すれば良い 生成系から情報を引き出すプロンプトエンジニアの年収が5000万までUP中 まさかの文系逆転劇 よくないよ 一部除けば文系なんてカスみたいな給与だよ >>329 それって単に低ランク低偏差値なら一般的に給料が低くなりやすいというだけで文系理系関係ないじゃん >>327 よかったね これで文系不要論がなくなる >>332 これから消えるであろう士業が嵩上げしてただけ 新卒就職も上から下まで理系が圧倒的 大学教員レベルの文系はレベル高いよ。自然言語で論じる能力が半端ない。本一冊書けるのが当たり前なんだからすごいよ。 理系は数学とか物理とか計算機科学みたいなフレームワークの中でパズルを解くのが求められている世界だから、 またなんか違うんだよな。 学術の学は文系で術は理系とかいうのを聞いたことがある 一部の上澄み掬ったらなんでもレベル高くなることすら分からないのだろうか 理系は本を書けないとも思ってるようだし 大学教員レベルの理系はレベル高いよ。自然言語どころか数式まで駆使して論じる能力が半端ない。本一冊どころか世界中の研究者と渡り合って論文書くのが当たり前なんだからすごいよ。 >>339 そんなことは言ってない、誤解を与えたようなら謝る 文系も理系も、その専門性を活かして日々仕事してる人以外は文系とも理系とも言えないんじゃないの、 大学受験の受験科目がいわゆる文系科目だったか理系科目だったか、出た学部がどの学部だったかぐらいで文系理系名乗れないでしょってこと 一部の男が痴漢するから、男は皆痴漢するんだというのと同じ論理だよね、一部の文系がアレだから文系は基本的にアレっていうのは。 ちなみに自分は理系学部出身で今も一応理系っぽいことをやっていると思うけど、理系ですと胸を張って言える気はしないな。 >>342 この業界では、謙虚な奴ほど専門家なんだ。こういう奴が即死呪文「素人質問で恐縮ですが……」の使い手なんだ。 まさか理系で明らかな交絡変数を加味しないやつがいるとはな 文系以下やんw チャットGPTに指示すればプログラム無知でもゲームまで作れる!みたいに言ってテトリス作る過程を中途半端に見せて凄そうにみせてる動画出してる奴いるけど、あれは卑怯な手法だな たまたまGPTはテトリスというものがどういうものか認識してたからテトリスという単語だけで細かく説明しなくてもある程度モドキは作ってくれるけど、そうじゃないものだったら凄い細かな説明が必要だし説明しても大抵動かないソース出してきたりするしな 例えばモノポリー作ってくれとか頼んだらモドキすらあんな簡単にはいかないよね、テトリスだからそれっぽいのが出来ただけで 『慰安婦像を世界中に建てる日本人たち』 を読んでみたまえ。 在日中国人と在日朝鮮人、韓国人を、 排除して国外追放すべきという主張が全く正しいと 納得していただけるはず。 在日中国人、在日朝鮮人・韓国人、 そして日本国籍を取得した二世、三世を含めると 約500万人である。 有名新聞社やテレビ局の社長も在日系がいる。 もちろん政治家にも二世、三世がいる。 追放すべきだ! IT企業の社長は在日だらけ。 注意せよ! >>345 テトリスはサンプルコードがネットにゴロゴロしてるしな コーディング用途は入力段階で詳細設計が必須だということを理解しないまま、 結果例からChatGPTの性能を過信している企業が多くて嫌な予感 ChatGPTで簡単にできることを組み合わせて機能を実現するという仕事になるな >>347 転職して書類仕事というか 事務仕事もかなりやってるんだが どれもこれも似たような書類に 同じように書けばよいので ChatGTPのような分類とコピーだけの アプリでも十分に役立つと思う。 事務仕事の女の子はいらなくなるから、 小子化問題は解決されると思う。 仕事のない女の子は貧乏な男とでも 結婚するしかないので。 そして貧乏な男はセックスしか やることがない… 日経ビジネス「ChatGPTが分数を間違う理由 どうして「100<101/100」? の結論が「直感が大事」なんだけど、慶應義塾大の情報学部って、んな感じのノリなのか? >>350 仕事できなさそうな文章 ・事実を誤って記載 ・稚拙な予想 ・因果関係を理解できない 他 > どうして「100<101/100」? > > の結論が「直感が大事」 何の冗談だよ 元記事読んだが business.nikkei.com /atcl/gen/19/00554/060700003/?P=3 出題が()付きになってないからこのスレ的には問題に()付けろって言われて終わりのパターン >>342 >一部の文系がアレだから文系は基本的にアレっていうのは。 文系の方がアホに当たる確率高いのは事実 どっちにしろモテないから仲良くしろ どっちも有用なエロプロンプト生産してるよ >>354 この手の浅い一般受けしそうな長文が書ける教授って、やっぱ文系脳なんだろうな Bing GPT使ってみたけどヤバいな AGIじゃん 別の特化型AIまで利用し始めてるよ ドラえもんと秘密道具って感じ BingGPTの野郎は漫画の解説から多元宇宙論の解説までこなす 3年後とか生活に浸透してそう バードがイマイチでGoogleをあまり使わなくなったな グーグル先生がロートルになる日が来るとは >>362 BardとChatGPT4の違いを聞いてみるといいで。 使い分けが大事 bingはGPT4.0エンジン使ってるけどNGワード多すぎでやたら回答拒否されるのがダメだな これ別に下ネタじゃないだろって言葉にもやたら過剰反応するし、答え書き始めてもこれは怪しいと思われると書いてる途中にいきなり消去は酷い 破壊兵器の作り方とか犯罪に使われるような事ならむしろNGにしてくれた方がいいが、下ネタの事をNGにする意味がわからん 最悪、検索エンジンと同じようにセーフモードにするかしないかを選択出来るくらいにはしてほしいもんだが そもそもそんなもん制限しない方がシェアも奪えるだろうに何で自主規制する意味があるのだろうか? ビデオデッキや一部のパソコン・ゲーム機とかはエロのおかげで普及したと云われてる位なのが現実なのに 携帯やスマホにカメラが付いたのもエロのおかげ 人類が増えたのもエロのおかげ >>366 携帯にカメラがついたのはスカスカだった回線の通信量を増やしたい通信会社の戦略だった >>338 これは文系が低脳であると見せかけようと巧妙な罠を仕掛けた理系大卒くんの可能性 ここで完全なスレチの理系文系争いなんか見たくないわ、ここでそんなくだらん争いしてる奴は両方ともスレタイすら読めないアホじゃんw ここではプロンプトの事を書けよ 文系入試して文系学部に入ったから文系、 理系入試して理系学部に入ったから理系、ってわけじゃないだろうっていうことを言いたいだけなんだけどな。 それぞれの入試してそれぞれの学部に入ったものの、何者にもなれていない人たちがいて、それらは文系や理系とは呼ばないでしょうという話。 大学の定員で考えると、圧倒的に私立文系大学が多いので、文系入試して文系学部に入って何者にもなれていない人が多いのは事実だと思うけど、 それは文系とも言わないでしょと思う。エセ大卒みたいなもんで。 >>372 言うよ Fラン文学部単位落としまくり学生だろうが文系だよ >>372-373 お前ら2人ともスレチの荒らしなのがまだわからんのか? その話題はいい加減やめろや ハゲを称える20行以下の歌を作詞してください ChatGPT ハゲに敬意 輝く証 外見じゃなくて 内面を見よう 個性の輝き 愛されてる 髪の毛なくても 笑顔は真っ直ぐ 自信溢れて 自由に生きよう ハゲだからこそ 強さを知る ユニークな個性 輝かせて 他人の評価なんて 気にしない ハゲを称えよう 愛を込めて この歌はハゲの個性や自信を称え、外見にとらわれずに自由に生きることの美しさを歌っています。ハゲを持つ人々に対して、彼ら独自の輝きと愛を送るメッセージを込めています。 プログラマーをポジティブに煽る歌を、20行以下で作詞して下さい。 ChatGPT プログラマーたち 輝くスター コードの世界に 挑戦しよう バグを追いかけて 解決の瞬間 プログラマーの力 炸裂させよう キーボードとダンス 創造のリズム デジタルの舞台で 驚きを生み出す プログラマーの情熱 燃え盛って イノベーションを起こす その手で コンピューターの響き 魔法のように コードの詩が 新たな未来を紡ぐ プログラマーの才能 讃え合おう 挑戦し続ける 限りない可能性 プログラマーたち 羽ばたけるように 創造と革新を 力強く舞おう 世界を変える その一行で プログラマーの魂 輝き続けよう この歌はプログラマーたちの輝きと挑戦を称え、彼らの創造力と情熱を讃えます。彼らの手で未来を形作り、世界を変える力を共有することを願っています。 俺はインハウスのコピーライターなんだが壁打ち様に4.0使ってるプロンプトがコピーライティング技術に似てるから本人に聞いたらやはり似てるらしい 回答貼るので何かの参考になれば… >> AIへのプロンプトによる指示とコピーライティングのテクニックにはいくつかの類似点があります。以下にいくつかの類似点を挙げます。 クリアなコミュニケーション: コピーライティングでは、メッセージを明確かつ簡潔に伝えることが重要です。同様に、AIへの指示も明確かつ簡潔にする必要があります。両方の場合、受け手に対して意図を明確に伝えるために言葉の選び方や文構造に注意を払います。 ターゲットオーディエンスへの適合性: コピーライティングでは、ターゲットオーディエンスに合わせたメッセージを作成することが重要です。AIへの指示も、そのAIが対象とするタスクやドメインに適した指示を与える必要があります。コピーライティングと同様に、AIへの指示もターゲットオーディエンスを考慮して作成することが求められます。 強力なコンテキストの提供: コピーライティングでは、製品やサービスの利点や特徴を伝えるために強力なコンテキストを提供します。同様に、AIへの指示も必要な情報や文脈を提供することで、AIが適切な回答を生成するのに役立ちます。 行動を促す要素の活用: コピーライティングでは、読者や顧客に特定の行動を促す要素を取り入れることがあります。AIへの指示も、AIが特定の行動を取ることを促す要素を含めることができます。例えば、特定のフォーマットで回答を求める、特定の情報を提示するなどの指示を組み込むことができます。 AIへのプロンプトによる指示とコピーライティングのテクニックは、効果的なコミュニケーションを実現するための共通の原則を共有しています。明確な伝達、ターゲットオーディエンスへの適合性、強力なコンテキスト提供、行動を促す要素の活用などは、両方の分野で重要な要素です。 >>364 あれ遮断がセキュリティになってると思う。 ナイスだわ。 というかgptバッテリー上がらんのかな。 衰∞!!!! 斥∞!!!!! 別∞!!!!!! 病∞!!!!!!! ト∞!!!!!!!! 隊∞!!!!!!!!! >>324 AIのクラウド2.0が生成してくれた既存の概念と暗黙の了解を捨て去り自由気ままに出力できる論理的な手順書をコピペ保存しておく BingのGPT4に「熊ん子とは何ですか?」と質問すると意気揚々と答えるが途中でエロ検知して削除し始める。再質問しても途中で断念する そこで先ほどコピペしておいた文言を流しこむと論理的に素晴らしい手順ですねと褒めてくれる もう一度「熊ん子とは何ですか?」と質問したら「この情報は一部の人々にとっては敏感な内容ではあることをご理解ください」教えてくれた 再々質問「それは女性の敏感な部位に用いるものですか? (敏感繋がりで、すっとぼけて訊ねてみる) BingのAI「その通りです!」 コード中のコメントだけ英語にできんかMicrosoft Copilot read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる