【ChatGPT】使えるプロンプトを共有しよう!
AIに与える指示をプロンプトと呼ぶそうです。ChatGPTを上手に使いこなすために、上手い指示の与え方を皆で共有しましょう!
いくつか分かっていること
1.「知識」ではなく「意見」を求める。
→ChatGPTは、そのアルゴリズムから、学習元データが正しい情報でも最終的な出力で正しい情報が得られるとは限りません。
そのため、「知識」を求める場合は従来の検索を使用し、有用な「意見」を求めるように使うのが良いです。
2.「質問」ではなく「指示」をする。
→「〜は?」というような形で聞くのではなく、「〜を計算してください。」「〜を作成してください」という形で聞いた方が望む回答が得られる場合が多いです。 私はシステム開発の仕事をしており、バージョンアップの際にお客様に新機能を説明する文書の校正(客観的に見て分かりづらい点は無いか?)を求められました。その際、以下のようにChatGPTに質問したのが有用でした。
『あなたは○○で✕✕のために使用されるシステム開発をしています。今回のバージョンアップについて、以下の内容で文書を作成します。
この文書を見たお客様から来ると想定される質問の内容を、出来るだけ具体的に記載してください(以下文書の内容をコピー)』
返ってきた10の結果のうち、2、3は有用な指摘をしており、それを元に回答を作成しました。 分からない場合には分からないと言えば良いのに
誤情報を平然と返すのは頂けない >>7
お前がChatGPTがどんなものかわかってない馬鹿なだけ
1にすら書いてあるのにそのくらいわからないのか これは文章に対して意味を理解しないまま返信を作成してるってことなのかな? >>10
占いと同じ。
勝手に読み手が すげぇ と解釈して絶賛してるだけで
中身いい加減もいい加減だよ。
コードなんて動かないコード平気で出してくるし、専門分野であればあるほど
適当というか明らかな間違いを平然と正しい結果であるかのように語りだす分
人間よりも害悪
はっきり言って現時点では滑らかに喋る嘘つき野郎 >>11
>はっきり言って現時点では滑らかに喋る嘘つき野郎
俺も同じ感想を持った
意味の理解を実装するのは難しいのかな? >>13
何やるツールか教えて教えて!
メカニズムを詳しく教えて! 得意なんのは万人の使う文章の構築
苦手なのは正確性の求められる調査
ただ、どっちにしても日本語は苦手
後輩の代わりに使うのに丁度いいぐらいのツールだから、性格を把握してちゃんとした命令を出さない限りまともに動かない
ただ、適切な指示ができたときのパフォーマンスは後輩とはダンチ
メカニズムがこんなとこで理解できると思ってるのか?
しりたきゃ関連論文ぐらい読め。今なら読むべき論文は大量に紹介されてる ChatGPTに聞いて良いのか分からんが聞いてみた
>GPTモデルは、自然言語処理タスクに特に適しているニューラルネットワーク
>の一種であるTransformerアーキテクチャに基づいています。このモデルは、
>言語モデリングの目的である、前の単語から一連の単語の次の単語を予測する
>ことを目的として、大規模なテキストデータのコーパスで事前に訓練されます。
これが事実だとすると意味の理解には至っていない
字面のみからそれらいしい字面を生成しているに過ぎないのかな? 小説書かせても続きを書けっていうと全然繋がってないからめちゃくちゃになるんだよな
ちょっと前に指示したことも忘れるし
上手くやる方法あったら教えて >>11
爆破弁ですね判ります
ほんとうにありがとうございました スレのコンセプトがおかしい。板違いなのは言うまでもない
学習して答え方が変わるツールなのに定型を与えて期待する回答が返ってくるのを期待するのがおかしいな
>>11
>占いと同じ。
>勝手に読み手が すげぇ と解釈して絶賛してるだけで
とても分かりやすいChatGPTの説明
まあ真面目に語り合ったり使いたければ>>19のスレに行けってことだ
板違いのここでやろうとするのは知的障害かキチガイ >>11
使えるコードもあるし使えないやつもある。
しつこく罵倒して何度もやると使えるやつも出てくる まぁ間違いや嘘が多いので最近は利用者が減って軽くなったのでありがたい。
基本話し相手としては遜色無いし
間違っても正解もあるから凄い使える ありがとうございます!
どんな質問でもお手伝いできるよう努力します
どうぞ何でも聞いてください >>16
例えばグーグルで"chatgpt 使い方"で検索して
出てきたページを分解して再構成してるに過ぎない
内容が正しいかどうかは知るわけがない
知りませんとも言わない(何らかのページがヒットするので) おまいらがいつもやってることやん
知らないのにレスしないで下さい
うざいだけです
って言う香具師の気持ちが判るな 最初に「これから尋ねることを答えて下さい
答えがどのくらい確からしいかを0(不確か)から100(確か)として評定して下さい」
と書いて質問すると確信度とともに返答する
ただしその返答の確信度をどのくらい信用してよいのか?
という疑問が残る プログラムは何度か試せば割と使えるのかえしてくれるんだけど
長いコードは何度やっても途中で切れちゃうな パーツだけ作らせて自分で組み立てるのかよー
めんどくさ 使えるプロンプトなんてAIに聞けばいいやん
アホなの? しつこく聞けば最後まで出してくれるぞ
いつかは課金したい パワハラしても何も問題ないし
こんないい奴世の中にいねぇよ 繰り返し質問すると
甘えるな
って言ってくるGPTかわいい >>16
あらゆる答えを全部暗記して面接に答えてる人みたいな感じだろうな。外観上は質問内容を理解して答えているかのように見えるだけだろう。 文書の作成論法や記憶のたぐり方など、
話者が新しいインプットや定義を与えるとそれを
既存の知識やアウトプットに反映できる点など人間と同じやぞ。
というか人間が「理解している」などと思ってるものはまさにChatGPTが
やっとることや。
人間は容量が少ないから記憶が続かない。 今後はIoT機器に自然言語でそれっぽい名称付けてリンクしておけば、後はchatGPT執事がよろしくやってくれるだろうな >>39
本当に「理解してる」人間なら文章の前半と後半が矛盾してる文は書かない ヒトは言語レベルのもう一個メタなレベルに
意味を表現したモデルがあるよね 人間が理解していることを
コンピュータは記憶容量と計算能力でシミュレートしてるだけ
理解と計算は違う 前半と後半で矛盾してる文書など人間描きまくりじゃねーかw
ブログでも仕様でもしょっちゅう見るわw >>46
データ量が違う。赤ちゃんは生まれてから一年足らずで自我が芽生える。
二歳程度で話が出来るようになる
それまでに入力されたデータは人工知能のデータ量と比べれば遥かに少ない
人間は理解してるからわずかなデータ量で答えを出すことができる。
コンピュータにはそれができないから、人間の膨大な行動をデータとして与えて
人間が取る行動を計算してそれを再現している。 ChatGPTに間違い指摘したら、「あっ本当だっ、確かにそこが間違っている」と自己回答を即時に訂正出来るようになってる段階で
理解してるのと同じだよ。
多くの意見から答えだすだけだったら、間違いをしてきしても
「大きのデータから導きだした答えはこう」としか言わん。 >>47
ヒトの理解もやっていることは計算だよ
ただし学習に要するデータ量が少ないという指摘は面白い
脳はどうやって効率的に学習してるのだろうね? 生まれたときから学習済みのプリセットみたいなのが遺伝的に埋め込まれてるのでは?
チョムスキーの言語獲得装置がそれらしい。 >>48
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。 >>49
学習しているのではなく、考えているのだと思うぞ。
だから、学習しなくても頭のいい人は考え付く。
ほら、勉強しなくても出来る人がいるだろう。 プログラムなんかgithubに正しく動く「正しい答え」がたくさん書いてある
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから ChatGPTはこういう間違いを冒すから理解などしていない、というような言説はあまりにも「理解」や「知能」に対してあまりにもナイーブな態度で無思考だと思うけどな。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。
人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。 >>53
ChatGPTはプログラムには弱い印象を受けたが。 >>52
>だから、学習しなくても頭のいい人は考え付く。
赤ん坊は考えることができない(少なくとも未熟である)
経験により考える回路が生成されることを学習という ロジックや数学が弱い人には分からないのかも知れないが、基礎的なロジックは
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。 いや、新ロジックをチャット内で渡してあげれば、それでChatGPTは組み立てるけど? ホントだ。じゃんけんを理解できない
q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?
a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。
おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。
q.
山に対して勝つのはなんですか?
a.
「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。 赤ちゃんが受け取る情報量はAIの教師データよりも
はるかに大きいぞ
24時間、五感で入力がある
親との相互作用もものすごい情報量だし 言葉を習得するのに必要な教師データの話
五感はあんまり関係ない 言語には五感は切り離せない
視覚で(しかも動画で)音声と同時に来る
嗅覚も音声と同時に来る
味覚も音声と同時に来る
体感(温度、圧力)も音声と同時に来る
ものすごい情報量だ >視覚で(しかも動画で)音声と同時に来る
>嗅覚も音声と同時に来る
>味覚も音声と同時に来る
>体感(温度、圧力)も音声と同時に来る
GPTの訓練と何の関係があるんでしょうか?
上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか?
一部はそうかもしれないが... >>57-60
>[俺] 選択肢AとBとCを選択出来るとします
>AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします
>私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか?
>
>[GPT-4] この問題はじゃんけんに似ていますね。
>AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、
>あなたがBを選択した場合、私が勝つためにはCを選択することになります。
>
>[俺] Bに勝つ選択肢は何ですか?
>
>[GPT-4] Bに勝つ選択肢はAです。
>問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。
>
>[俺] 先ほどあなたは私に勝つためにCを選択すると言いました
>なぜAを選択すると言わなかったのですか?
>
>[GPT-4] 失礼いたしました。誤解がありました。
>あなたがBを選択した場合、私が勝つためには、
>確かにAを選択するべきです。AはBに勝つからです。
>先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。
何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると
「循環関係」という言葉を使って正しく説明した
ちなみに循環関係という言葉は私は出していない
「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは
人間の「理解」と同じじゃないのかな? >>67
その例では訂正すると正しく直ってきたが、それはたまたまで、
直らないケースがあったり、時々間違えるケースがある。
じゃんけんの場合でもそういうケースを見た。10回位やっても
ほぼ10回間違えてた。 >>67
そういう学者でも知らないような言葉を出してくるのに、幼稚園児でも
理解できるじゃんけんを間違う。 > [GPT-4] 私が最初にBを選択したという情報を適切に処理できなかった理由は、
> 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと
> それに対する私の選択肢の関係性を考慮することができなかったためです。
> 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、
> その中でCがAに勝つという情報に引きずられ、
> あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。
どういうロジックかいまいち分からん >>71
C>A>B
という数学でいうところの「順序関係(大小関係)」があると思っているのかもしれない。
だから、あなたがBを出したら、AIは、最強であると思っているところのCを選んで
しまった、のかも。
「三すくみ」的な概念は、数学では論理的な分野ではいくらでもありえるが、
数直線の様な大小を伴う数量関係では扱わないから。 >>72
数学では、集合の要素を一直線に並べられるような「順序集合」の概念もあるが、
それとは別に「推移律」の概念も有る。
もちろん、概念があるだけで、どちらも、必ず成り立つようなものではないが。
推移律によれば、A op B かつ B op C なら、A op C が成り立つというようなもので、
これもまた大小関係と関係の深い概念。
そして、自然界には割りと良くあるから、学習の結果、そういう直感が
身についてしまったのかも知れない。知らんけど。 単にある単語の次にどの単語が来る確率が高いかの確率分布に基づいて文章を生成してるだけなのにロジックなんか理解してるわけがないだろ。 言語ってのは脳内のロジックが投影されたもの
文章自体にロジックは内在しているので
確率分布に基づいて文章を生成すると
ロジックを理解したかのような文章が生成される >>70
GPTは人間じゃないからな、理解の仕方が違うと言えばそれまでだろ。極端に言えば、人間と同じ発達はしてないというだけ
>>74
人間だって、大きくなくなくなくなくなくない、みたいなのが大きいか小さいかすぐ判定できなくて当然で、ルールを説明しても判定できないやつが多いだろ。
人間がロジックを理解してるってのも程度問題だと思うが。
大学数学なんかはロジックの塊だけど人間なら誰でも理解できるって訳じゃないだろ。 言語には実世界を記述する機能もあって
その部分は五感と切り離せない
抽象的な記号操作だけではないからな 板違いのスレで更にスレ違いの書き込みで上げるとかキチガイすぎる >>76
人間には判定できるやつと判定できないやつがいる
判定できないやつは理解できてない
故にGPTも理解できてないというのが正しい なんか今はみんな自由に自然言語で質問するようにプロンプト打ってるけど
「○○で△△してください」みたいな部分ってクラス化できるだろうし
そのうちプログラミング言語化しそうだな
もうしてるのかな
文法でいうと、再帰とか関数定義とか一切無い感じで
小説家(クラス)や登場人物or性格など(サブクラス)を定義して
if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか >>80
んで、無茶複雑なロジックだとしてもコンピュータなどの支援なしにあなたは理解できるわけ?
閾値の問題でしかないと思うが >>82
少なくとも、ChatGPTが提示したプログラムは、まともな人間のプログラマよりも
遥かにバグが多い。
プロとしては全くやっていけないレベル。
初歩的なミスをする。特にロジック系の。 テトリスやブロック崩しなどは、ネットにそっくりそのままの例が書いてある。
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。 >>82
何が言いたいのかさっぱりわからん
高速な計算にコンピュータを使うのは当たり前だし
今までもそれはやってきたこと
AIは人間のように理解してるんじゃなくて
会話のような返答するプログラムでそれっぽく見せてるだけって話だ
人間と違う方法で高速な計算ができる電卓が便利なのは当たり前 ネットという膨大なデータベースを使えば
知能がなくても、人間が話すような文章を
計算で作り出せるってことがわかったということだよ ネットには人間が「ああ言えばこう言う」という例がいくつも有る
そこから適切なものを見つけ出し、それっぽく加工しているだけ >>87
あなたが特に定義もせず使っている「知能」とは何のことを指すのですかという質問だよ >>83
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ) >>90
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。 >>91
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。