【ChatGPT】使えるプロンプトを共有しよう!
AIに与える指示をプロンプトと呼ぶそうです。ChatGPTを上手に使いこなすために、上手い指示の与え方を皆で共有しましょう!
いくつか分かっていること
1.「知識」ではなく「意見」を求める。
→ChatGPTは、そのアルゴリズムから、学習元データが正しい情報でも最終的な出力で正しい情報が得られるとは限りません。
そのため、「知識」を求める場合は従来の検索を使用し、有用な「意見」を求めるように使うのが良いです。
2.「質問」ではなく「指示」をする。
→「〜は?」というような形で聞くのではなく、「〜を計算してください。」「〜を作成してください」という形で聞いた方が望む回答が得られる場合が多いです。 >>91
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね >>93
詰め将棋のアルゴリズムは、すぐには分かりにくいものでは有るが、
ChatGPTの犯す初歩的な間違いとはレベルが違いすぎる。 そもそも、ChatGPTは、テトリスが何たるものかも理解してなくて、
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。 >>94-95
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。 人間の場合は、プログラムコードでも、1行ずつ実行を辿っていって、
変数に何が入るかをシミュレーションできる。だから、根本的に間違っているコードは
自分でも分かる。
バグが入るのは、シミュレーションに間違いや勘違いが紛れ込むから。
でも、指摘されればちゃんと分かる。
ChatGPTの場合は、指摘されてもちゃんと訂正できてない。
また、明らかに間違っているコードを平然と出してくる。
人間の場合だと、それが間違っていることが分かるから「分かりません」と言う。 >>96
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。 >>97
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。
その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
人間で言えば「思考型」ではなく「記憶型」タイプ。
プログラマに求められるのは、思考型。 >>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。 >>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。 chatGPTは、言って見れば、文系のサイエンスライターなんだよね
中身はよく分からないけど、それらしい言葉を繋げてもっともらしい文章をでっち上げるのは得意 >>100
あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか?
出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。
あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。 >>104
他のプログラマはできないこともあろうが、個人的には、マシン語まで落とした
レベルまでシミュレーションできる。レジスタがどうなるか、フラグレジスタが
どうなるかまで。 >>104
一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。
問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。
ChatGPTは、じゃんけんのルールを何度言われても理解できない。 それにもっといえば、ChatGPTに、どんなプログラムを作ってほしいか、
自然言語で伝えるのがとても難しいということもある。 >>105
やるやん
>>106
言語のルールだから動作原理は考えずに覚えればいいというのは場合によっては思考停止でしょ。
計算量を考慮しなければならない場合、本当に思考に思考を重ねて実装を決定しているのか?ある程度は過去の経験でこうしたら80点みたいなことをやっているでしょ。
テトリスの作り方など、ソースコードを覚えているだけで十分という見方もできるのでは。人間とは粒度が違うという結論にしかならんでしょ。
>>107
それは人間だって一緒だよね。会ったことないクライアントとプログラマーが10分のMTGでまともなプログラム一発で書いてもらうの無理だろ。 >>108
どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。 >>109
それは同意するけど、「知能」についてはどうなんですか? >>110
じゃんけんのルールが正しく適用できないので、論理は弱いと思う。 githib copilotは、githubの大量のプログラムを学習した結果に基いて
プログラムを生成する。それが流行れば、GPLが実質的にBSD系ライセンス
の様に扱われることになるから、GPL汚染がなくなって平和になるかも。 tar.xzの中のファイルを巡回するのにlibarchive使おうかなと
サンプルコード検索してみたけど
ぐじゃぐじゃしていたのでGPT-4に書かせたら一瞬で終わった
小規模なコードで自分で正誤判定できるようなら
圧倒的に時間短縮になるよ >>114
それどうなんかな? AIの生成物の著作権って決着はついてるの? >>116
そもそもGPL自体が、本来の著作権法の趣旨に反しているのでライセンスとして
有効かどうか議論の余地がある。
著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
別の思想(左翼的)の方向に持っていってしまうし。 著作権法では、「引用」も認められているし、色々な本から少しずつ引用して
全体として百科事典の様なものを作ることは許されているはず。
GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な
思想。 >>117
日本で判例があるかは承知してないが
GPLでライセンスされたソフトウェアを利用した製品を販売している会社は
GPLが有効であると考えているから必ずGPLの表示している
>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>別の思想(左翼的)の方向に持っていってしまうし。
詳しく >>118
>GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な思想。
ライセンスに思想があるのかは知らんが
著作権法で保護されているのだから
引用はGPLとGPL以外のもので差はない >>119
>>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>>別の思想(左翼的)の方向に持っていってしまうし。
>詳しく
著作権法は、作家(文学、映画、ドラマ、アニメ、プログラム)などの作者が
著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
GPLはその目的を明らかに壊す働きになっている。 >>121
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
ソースを示してくれるかな? >>122
著作権法の目的(1条) この法律は、著作物並びに実演、レコード、
放送及び有線放送に関し著作 者の権利及びこれに隣接する権利を定め、
これらの文化的所産の公正な利 用に留意しつつ、著作者等の権利の保護を図り、
もつて文化の発展に寄与 することを目的とする。 >>123
そのどこに
>著作物を売って生計を立てて、作品を作り続けられることを目的とした法律。
と書いてあるかな? 完全オリジナル曲でもJASRACが邪魔するけどなw >>124
当時としては、そうとしか考えられなかった。
税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。 >>126
>税金で食っておきながら他人の著作物を盗もうとする学者など想定されてない。
「他人の著作物を盗もうとする学者」とはどういうこと?
更に想定されていなとは当時は学者がいなかったということ? >>127
GPL感染させて、民間技術者が努力して作った技術を盗もうとしている。 >>128
それは認識がおかしいぞ
まずGPLは対価としてお金ではなく
派生物をGPLとせよという契約
対価を支払わないなら使わなければ良い
当たり前のことでは? >>129
GPLが蔓延して、使わないと競争上不利になる状況が生まれている。
その結果、ソース公開しなくて良いところのネットサービスばかりが発達した。
ChatGPTも、ローカルアプリ単独では動作しない。 >>130
使わないと不利になる状況ってどんなとき?
使わなくても別に困らないんだが GPLは使えるから使っているのであって
別に使わなくても不便なくやっていけるよ? このスレの何割がChatGPTで生成されたレスだろうか >>130
それGPLと関係なくね?
そもそもChatGPTはローカルアプリでは無理やろ >>128
盗もうとしてる主体は誰かな?
世の学者集団が結託して
民間技術者が作った技術を盗もうとしている
とでも思っているのかな? >>135
自分達の役割を果たさずに、民間を苦しめている。 正しいコードを書かせるためにプロントを四苦八苦してるうちに自分でコード書いたほうが早いからな…
現状ちょっと弄っただけで糞とわかるChatGPTの記事なんて書く意味ない 5回連レスとか人口無能かこれ
ChatGPT程度にはまとめる能力ほしいな >>140
立花さんは良く勉強してたそうだよ
インタビューされた先生が褒めていた みんなChatGPTだからスレタイを忘れてしまったんだ😭
トークンメモリがオーバーフロー起こしてるんだ >>138
人工無能と人工知能の仕組みは同じだよ
思考はせずにデータベースと計算から
人間が話すような文章を生成している まじでやばいことに気づいた。
専門的な質問の仕方をすると専門的な答えが帰ってくる
アホみたいな質問をするとアホみたいな答えが帰ってくる
アホがアホな会話を無限に楽しむことができてしまう、
どんどん人間の格差を拡大させてしまうツールだ。 確率で次にくる言葉を選択しているから
専門家は専門家同士でアホはアホ同士で
世の中では同じレベルの人間がコミュニケーションしているのが
反映されているんだろうね
専門家とアホは会話が成立しない 小学校低学年でもわかるように微分積分を説明して下さい
微分は、ある関数の変化の速さを表すことができる操作です。たとえば、
自転車を乗っているとき、ペダルを踏む速度が速くなると、
自転車の速度も速くなります。同じように、関数の値が変化する速さを求めることができます。
例えば、関数 f(x) = x^2 があります。この関数を微分すると、
xにおける関数の傾きを求めることができます。具体的には、次の式で求めることができます。
f'(x) = 2x
これは、関数 f(x) がxにおいて微小な変化 Δx したとき、f(x)の値が
どの程度変化するかを表しています。つまり、f'(x) は x における傾きを表すので、
xが増加する方向に傾斜する場合は正の値を、減少する方向に傾斜する場合は負の値を取ります。
積分は、微分の逆演算と考えることができます。つまり、ある関数の微小な変化を
足し合わせて元の関数を求めることができます。例えば、関数 f(x) = 2x がある場合、
xが0から2までの範囲で積分すると、次のようになります。
∫f(x)dx = x^2 + C (Cは積分定数)
これは、xが0から2までの範囲で、f(x)がどのように変化するかを表しています。
具体的には、xが2になると、f(x)は4になるため、元の関数 f(x) = 2x も同様に、xが2になると4になります。
以上のように、微分と積分は、関数の変化を表す操作であり、数学における重要な概念の一つです。 >>148
これ理解出来る小学生が世界中に何人居るんだかw 図解してくださいとか
グラフ描いてください
ってのはやってくれないんか >>146
なるほどね
アホはアホなりにアホの世界で閉じてくれていて欲しい >>151
webからコピーするのがありならできるな >>151
限定的ではあるが以下のようにして書ける
「y=x^2のグラフをpdfで吐き出すgnuplotのソースを書いて」
「半径1の円を描くPostScriptのソースを教えて」 上流工程のCASEツールってあるじゃん
あれからプロンプト吐くようにしたらプログラムの自動生成部分はAIに置き換えれそう 落合陽一のTwitterにある論文と感情のは使いやすくて良い chatGPTに質問させるのが手強いのと、chatGPTにプロンプト自体を作らせる奴が怖い https://www.youtube.com/watch?v=8y9hCQpN40A
構造化の部分が自然言語モデルで代替されるとすると
(自然言語 → )機械語、アセンブラなど → 構造化言語 → オブジェクト指向言語、関数型言語
ときて、自然言語に回帰というかパラダイムシフトが起ころうとしてるよな
つまり、この次はどうなるんだ・・? MusiXTeXで吐かせれば作曲もできるんだね
大したもんだ ChatGPTに作曲させたのって俺が初めてかな?
だとしたらちょっと嬉しいこの気持ちは何だ? >>159
プログラムって01しかわからんCPUにいろんなことを処理させるための手続き
それがAIで進化していくんだからプログラム自体不要になる 「ChatGPTがこんなことできた。ChatGPTすごい」じゃなく「ChatGPTにこんなことやらせた。俺すごい」なんだな。みっともない
せめてこのあたりでやれ。板ルールくらい理解しろよ
【ChatGPT】AIチャット総合スレ Part3【Bing】
https://mevius.5ch.net/test/read.cgi/esite/1680233514/
【人工知能】無料AIネットサービスマターリ雑スレ
https://mevius.5ch.net/test/read.cgi/esite/1679399158/ >>162
AIはプログラムを書けないよ
人が書いたプログラムを真似しているだけ
AIがいくら進化しても新しいものは作れない >>162
ChatGPTの特徴のひとつに文脈を理解するというのがあって
一番最初に(最初でなくとも)
「こうこうこういう(抽象的な)クラスや関数」を定義
次回から私の質問を引数やパラメータとして
定義されたオブジェクトや関数の実行結果を回答してね、
とできるよね
このフィードバックの部分って、
まさに利用者のプログラムじゃないの?ってのを言ってるんだが 将棋とか機械学習は最初は人の真似させてたけど、
3年ほどでAI同士勝手に成長。AIは人のマネをやめ、
プロ棋士がひたすらAIが発見した新たな手法や
新たな大局観覚え込んでるだけというw
上位棋士は全員平日はAI相手にマウスカチカチで教えを乞うだけ、その量を競ってるだけの毎日w
一番高い200万のスレッドリッパーマシン使ってる藤井聡太がますます強くなる構図。 逆説的に考えて今後、これまでのコンピューターサイエンス史の系譜を継ぐことはなく
google検索術みたいなプロンプトの工夫を自然言語プログラミングと呼ぶ、とすれば
それってプログラミング言語とはまったく別物ってことよね
それこそ森羅万象AGIとしての分岐になると思うが マークアップ言語を自然言語で書ける、みたいな
「テキストエリア置いて」どころか「オシャレなサイト作って」
そのサイトを細かく自然言語で指定できるテンプレートエンジン的な
違うか・・ 今は必要とされるアプリを人間が見つけて
それをプログラムして提供してるが、今後は何が必要とされるかすら勝手に見つけて
作っておススメしてくるようになる ただ、人間が理解できるものを全部理解できた後で無いと、まともなプログラマ
にはなれない。 いろんなことを即座に理解できるようでないと、ちゃんとしたプログラマにはなれない。
医者も、幅広く色んなことを知ってないと、臨床では上手く行かないと思うし。
患者「これこれ、こんなことがあって、こんなふうになりました」
医者「あー、それだと恐らくこういう病気です」
みたいになるのは、常識や理解力があるから。
医学だけに精通していては無理。プログラミングも同じ。 ちゃんとしたプログラマになることを目指してるやつと、
プロダクトを効率的に生産することを目指してるやつとで、生産性にも年収にも大差がつくんだろうな 「こんなことをしたいな」と思ったことを今のChatGPTは作ってくれないと思う。
テトリスやインベーダーゲームは、ネットに人間が書いたコードがあるから
すぐに作ってくれるだけだろう。 いまのChatGPTは、しりとりやじゃんけんも正しく遂行できないからね。
それだけ専用にハードコーディングしたら、この2つだけは出来る様になる
だろうが、世の中には新ルールの遊びや新仕様のAPIが次々に生まれるから、
そのたびに理解できないと駄目。
じゃんけんが理解できないのに、じゃんけんプログラムは出来るだろう。なぜなら
ネットに人が書いたじゃんけんプログラムのコードが上がってるから。
ChatGPTはルールは理解できてないのに、プログラムだけは出来ているかのように
見えるのは、ずるをしているからだ。 俺は厳密には回答できないけど
しりとりとじゃんけんならプロンプト次第で解決できそうじゃない? >>175
上手く行かないって報告がある。
そのうちAIではなく人間がハードコーディングした「アルゴリズム」で解決されるかも。 画像生成系AIも、絵心のある人間が修正したものを「AI作」として
ネットで紹介されていたりするみたいだ。
AIが生成したままのものは、結構間違いが入っていることが有る。 画像生成系AIは、本当にAIだけで生成したのかファクトチェックが必要だと思う。
アメリカ人は商売のために嘘を付く人が多いから。 >>176
設定すればできそうだけど、そのままだとGPT4でもじゃんけんできないな
しりとりは普通にできたけども >>176
しりとりも続けたら微妙に間違ってたわ
でも両方ともプロンプトでなんとかなりそうな気はするけども >>166
それって明らかに将棋AIを使えるのは
将棋が出来る人の上級者だけってことになってるけどw
一般の将棋指しに将棋AIを与えても
強くなれないよ >>182
一度こちらの言葉をひらがなに変換してから答えを考えるように命令すると間違えることはない しりとりができない、と噂が立ったから、人間が「アルゴリズム」を入れただけ疑惑。 結構頑張って命令出しても20個くらい続けさせると1個くらい「ん」で終わる単語出してくる
それ以外は問題なくしりとりはできる
たぶん英語圏のしりとりに「ん」に該当するルールがないのが原因な気がする ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を
学習で得ることは難しいはず。
間違うことがあることからしてもChatGPTがそこまでのものであるとは思えない。
今まで間違っていたのに、勝手に学習して間違わなくなる、なんてことは
有りそうに無い。 >>188
>ニューラルネットワークの原理からいって、しりとりみたいな「厳密な」論理を
>学習で得ることは難しいはず。
脳はしりとりできるのに? 違いは規模? たしかに普通にしりとりしたらGPT4でも間違うけど
たぶん間違えた部分は単語を英単語で認識してそうな感じがしたから
ひらがなに変換する過程を入れてしりとりをしたから上手くいっただけだと思う
しりとりのプロンプトを改善する過程で、しりとりをする時の認識を聞いたら、「前の言葉の最後の文字で次の言葉を考えることができます。」って言ってるからしりとり自体は上手くいくんだけど
「ん」で終わる言葉を禁止することを覚えさせても「「ん」で終わる言葉が禁止されてるルールは理解してるつもりだけど間違うこともある」みたいな回答だった
理解してても間違うならGPT4だと最後の文字の「ん」を避けるのは難しそう >>189
丁寧に言えば、どうして違いが出てくるのかは、余り分かってないと思う。
そもそも、どうしてChatGPTがこんな風に出来ているのかも、説明が難しい
と小耳に挟んだ。