AIに与える指示をプロンプトと呼ぶそうです。ChatGPTを上手に使いこなすために、上手い指示の与え方を皆で共有しましょう!
いくつか分かっていること
1.「知識」ではなく「意見」を求める。
→ChatGPTは、そのアルゴリズムから、学習元データが正しい情報でも最終的な出力で正しい情報が得られるとは限りません。
そのため、「知識」を求める場合は従来の検索を使用し、有用な「意見」を求めるように使うのが良いです。
2.「質問」ではなく「指示」をする。
→「〜は?」というような形で聞くのではなく、「〜を計算してください。」「〜を作成してください」という形で聞いた方が望む回答が得られる場合が多いです。
【ChatGPT】使えるプロンプトを共有しよう!
1デフォルトの名無しさん
2023/03/02(木) 22:35:58.45ID:l2fw3+kw2023/03/12(日) 03:39:04.16ID:8dUL/tXN
ChatGPTについて、語ろうぜ
https://mevius.5ch.net/test/read.cgi/internet/1675722116/
https://mevius.5ch.net/test/read.cgi/internet/1675722116/
20デフォルトの名無しさん
2023/03/12(日) 11:48:29.68ID:8DcR0+ge2023/03/12(日) 12:02:01.37ID:NoRypGmr
22デフォルトの名無しさん
2023/03/14(火) 14:16:50.07ID:DDN2iE3m23デフォルトの名無しさん
2023/03/14(火) 14:18:29.66ID:DDN2iE3m まぁ間違いや嘘が多いので最近は利用者が減って軽くなったのでありがたい。
基本話し相手としては遜色無いし
間違っても正解もあるから凄い使える
基本話し相手としては遜色無いし
間違っても正解もあるから凄い使える
2023/03/16(木) 13:17:56.30ID:srO8KDRm
ありがとうございます!
どんな質問でもお手伝いできるよう努力します
どうぞ何でも聞いてください
どんな質問でもお手伝いできるよう努力します
どうぞ何でも聞いてください
25デフォルトの名無しさん
2023/03/16(木) 15:23:04.50ID:/PhEV4zK >>15
パワハラしても訴えられない。
パワハラしても訴えられない。
26デフォルトの名無しさん
2023/03/18(土) 14:46:40.87ID:fSPMk7mF2023/03/19(日) 10:43:42.16ID:HgsVqb4a
>>16
例えばグーグルで"chatgpt 使い方"で検索して
出てきたページを分解して再構成してるに過ぎない
内容が正しいかどうかは知るわけがない
知りませんとも言わない(何らかのページがヒットするので)
例えばグーグルで"chatgpt 使い方"で検索して
出てきたページを分解して再構成してるに過ぎない
内容が正しいかどうかは知るわけがない
知りませんとも言わない(何らかのページがヒットするので)
2023/03/19(日) 12:48:07.26ID:fPDrKYk/
おまいらがいつもやってることやん
知らないのにレスしないで下さい
うざいだけです
って言う香具師の気持ちが判るな
知らないのにレスしないで下さい
うざいだけです
って言う香具師の気持ちが判るな
2023/03/19(日) 14:09:32.50ID:yjvpRwa7
最初に「これから尋ねることを答えて下さい
答えがどのくらい確からしいかを0(不確か)から100(確か)として評定して下さい」
と書いて質問すると確信度とともに返答する
ただしその返答の確信度をどのくらい信用してよいのか?
という疑問が残る
答えがどのくらい確からしいかを0(不確か)から100(確か)として評定して下さい」
と書いて質問すると確信度とともに返答する
ただしその返答の確信度をどのくらい信用してよいのか?
という疑問が残る
2023/03/19(日) 17:37:18.36ID:M4oKpQ8Q
プログラムは何度か試せば割と使えるのかえしてくれるんだけど
長いコードは何度やっても途中で切れちゃうな パーツだけ作らせて自分で組み立てるのかよー
めんどくさ
長いコードは何度やっても途中で切れちゃうな パーツだけ作らせて自分で組み立てるのかよー
めんどくさ
2023/03/19(日) 17:52:37.03ID:GXvqERSA
そこまでやるならGPT4課金しようよ
32デフォルトの名無しさん
2023/03/20(月) 08:27:20.31ID:arHskqKl >>30
課金もせずに何寝言言ってんだこのバカ
課金もせずに何寝言言ってんだこのバカ
2023/03/20(月) 12:40:57.68ID:J7zNP/C8
使えるプロンプトなんてAIに聞けばいいやん
アホなの?
アホなの?
2023/03/20(月) 13:18:31.24ID:HVF5ODAv
しつこく聞けば最後まで出してくれるぞ
いつかは課金したい
いつかは課金したい
2023/03/20(月) 13:41:09.81ID:HVF5ODAv
パワハラしても何も問題ないし
こんないい奴世の中にいねぇよ
こんないい奴世の中にいねぇよ
2023/03/20(月) 15:53:07.91ID:GQGgQXaM
繰り返し質問すると
甘えるな
って言ってくるGPTかわいい
甘えるな
って言ってくるGPTかわいい
2023/03/21(火) 03:01:34.17ID:jfPWdyha
くっそログインできねぇ
2023/03/21(火) 09:41:07.96ID:Z3L1twvQ
>>16
あらゆる答えを全部暗記して面接に答えてる人みたいな感じだろうな。外観上は質問内容を理解して答えているかのように見えるだけだろう。
あらゆる答えを全部暗記して面接に答えてる人みたいな感じだろうな。外観上は質問内容を理解して答えているかのように見えるだけだろう。
2023/03/21(火) 14:08:56.38ID:eeRrqSyn
文書の作成論法や記憶のたぐり方など、
話者が新しいインプットや定義を与えるとそれを
既存の知識やアウトプットに反映できる点など人間と同じやぞ。
というか人間が「理解している」などと思ってるものはまさにChatGPTが
やっとることや。
人間は容量が少ないから記憶が続かない。
話者が新しいインプットや定義を与えるとそれを
既存の知識やアウトプットに反映できる点など人間と同じやぞ。
というか人間が「理解している」などと思ってるものはまさにChatGPTが
やっとることや。
人間は容量が少ないから記憶が続かない。
2023/03/21(火) 15:17:51.18ID:icU0z8mb
2023/03/21(火) 15:53:25.98ID:2m76gYP+
今後はIoT機器に自然言語でそれっぽい名称付けてリンクしておけば、後はchatGPT執事がよろしくやってくれるだろうな
2023/03/21(火) 20:38:50.33ID:AlGpjgGZ
>>39
本当に「理解してる」人間なら文章の前半と後半が矛盾してる文は書かない
本当に「理解してる」人間なら文章の前半と後半が矛盾してる文は書かない
2023/03/21(火) 20:43:55.96ID:WgCRi6ko
ヒトは言語レベルのもう一個メタなレベルに
意味を表現したモデルがあるよね
意味を表現したモデルがあるよね
2023/03/21(火) 21:20:08.35ID:hTHtc575
人間が理解していることを
コンピュータは記憶容量と計算能力でシミュレートしてるだけ
理解と計算は違う
コンピュータは記憶容量と計算能力でシミュレートしてるだけ
理解と計算は違う
2023/03/21(火) 23:22:31.73ID:2ifuio+y
前半と後半で矛盾してる文書など人間描きまくりじゃねーかw
ブログでも仕様でもしょっちゅう見るわw
ブログでも仕様でもしょっちゅう見るわw
46デフォルトの名無しさん
2023/03/22(水) 00:19:13.95ID:5TmVGNgV2023/03/22(水) 01:23:16.09ID:FoKUJDpe
>>46
データ量が違う。赤ちゃんは生まれてから一年足らずで自我が芽生える。
二歳程度で話が出来るようになる
それまでに入力されたデータは人工知能のデータ量と比べれば遥かに少ない
人間は理解してるからわずかなデータ量で答えを出すことができる。
コンピュータにはそれができないから、人間の膨大な行動をデータとして与えて
人間が取る行動を計算してそれを再現している。
データ量が違う。赤ちゃんは生まれてから一年足らずで自我が芽生える。
二歳程度で話が出来るようになる
それまでに入力されたデータは人工知能のデータ量と比べれば遥かに少ない
人間は理解してるからわずかなデータ量で答えを出すことができる。
コンピュータにはそれができないから、人間の膨大な行動をデータとして与えて
人間が取る行動を計算してそれを再現している。
2023/03/22(水) 01:53:50.44ID:Jw2YWjYz
ChatGPTに間違い指摘したら、「あっ本当だっ、確かにそこが間違っている」と自己回答を即時に訂正出来るようになってる段階で
理解してるのと同じだよ。
多くの意見から答えだすだけだったら、間違いをしてきしても
「大きのデータから導きだした答えはこう」としか言わん。
理解してるのと同じだよ。
多くの意見から答えだすだけだったら、間違いをしてきしても
「大きのデータから導きだした答えはこう」としか言わん。
2023/03/22(水) 02:25:18.16ID:jZlOcGNt
2023/03/22(水) 02:41:30.98ID:+LspkWqM
生まれたときから学習済みのプリセットみたいなのが遺伝的に埋め込まれてるのでは?
チョムスキーの言語獲得装置がそれらしい。
チョムスキーの言語獲得装置がそれらしい。
2023/03/22(水) 04:10:47.43ID:JDpTXrQa
>>48
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。
2023/03/22(水) 04:11:47.53ID:JDpTXrQa
2023/03/22(水) 07:09:06.76ID:FoKUJDpe
プログラムなんかgithubに正しく動く「正しい答え」がたくさん書いてある
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから
54デフォルトの名無しさん
2023/03/22(水) 09:06:16.73ID:/4SY8xk7 ChatGPTはこういう間違いを冒すから理解などしていない、というような言説はあまりにも「理解」や「知能」に対してあまりにもナイーブな態度で無思考だと思うけどな。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。
人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。
人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。
2023/03/22(水) 13:54:33.89ID:FgwmRwyf
>>53
ChatGPTはプログラムには弱い印象を受けたが。
ChatGPTはプログラムには弱い印象を受けたが。
2023/03/22(水) 14:12:39.63ID:jZlOcGNt
2023/03/22(水) 15:48:34.19ID:FgwmRwyf
ロジックや数学が弱い人には分からないのかも知れないが、基礎的なロジックは
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。
2023/03/22(水) 16:03:03.19ID:qCUL2UVX
いや、新ロジックをチャット内で渡してあげれば、それでChatGPTは組み立てるけど?
2023/03/22(水) 17:34:17.38ID:cciQLhLM
ホントだ。じゃんけんを理解できない
q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?
a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。
おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。
q.
山に対して勝つのはなんですか?
a.
「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。
q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?
a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。
おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。
q.
山に対して勝つのはなんですか?
a.
「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。
2023/03/22(水) 19:38:29.34ID:pej3EZCY
>>59
それGPT-4で?
それGPT-4で?
2023/03/22(水) 20:38:45.16ID:yQIC+/g7
赤ちゃんが受け取る情報量はAIの教師データよりも
はるかに大きいぞ
24時間、五感で入力がある
親との相互作用もものすごい情報量だし
はるかに大きいぞ
24時間、五感で入力がある
親との相互作用もものすごい情報量だし
2023/03/22(水) 20:49:48.66ID:jZlOcGNt
言葉を習得するのに必要な教師データの話
五感はあんまり関係ない
五感はあんまり関係ない
2023/03/23(木) 03:15:37.18ID:1nQTmSRK
言語には五感は切り離せない
視覚で(しかも動画で)音声と同時に来る
嗅覚も音声と同時に来る
味覚も音声と同時に来る
体感(温度、圧力)も音声と同時に来る
ものすごい情報量だ
視覚で(しかも動画で)音声と同時に来る
嗅覚も音声と同時に来る
味覚も音声と同時に来る
体感(温度、圧力)も音声と同時に来る
ものすごい情報量だ
2023/03/23(木) 10:49:29.12ID:rQpQMC7M
>視覚で(しかも動画で)音声と同時に来る
>嗅覚も音声と同時に来る
>味覚も音声と同時に来る
>体感(温度、圧力)も音声と同時に来る
GPTの訓練と何の関係があるんでしょうか?
上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか?
一部はそうかもしれないが...
>嗅覚も音声と同時に来る
>味覚も音声と同時に来る
>体感(温度、圧力)も音声と同時に来る
GPTの訓練と何の関係があるんでしょうか?
上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか?
一部はそうかもしれないが...
2023/03/23(木) 10:54:34.28ID:Xtco/EqT
物事を形容する感性は育てられ無いって話か
2023/03/23(木) 10:55:25.21ID:Xtco/EqT
どこかで読んだ様な言い回しなら得意なんだろ
2023/03/23(木) 11:06:38.18ID:rQpQMC7M
>>57-60
>[俺] 選択肢AとBとCを選択出来るとします
>AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします
>私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか?
>
>[GPT-4] この問題はじゃんけんに似ていますね。
>AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、
>あなたがBを選択した場合、私が勝つためにはCを選択することになります。
>
>[俺] Bに勝つ選択肢は何ですか?
>
>[GPT-4] Bに勝つ選択肢はAです。
>問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。
>
>[俺] 先ほどあなたは私に勝つためにCを選択すると言いました
>なぜAを選択すると言わなかったのですか?
>
>[GPT-4] 失礼いたしました。誤解がありました。
>あなたがBを選択した場合、私が勝つためには、
>確かにAを選択するべきです。AはBに勝つからです。
>先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。
何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると
「循環関係」という言葉を使って正しく説明した
ちなみに循環関係という言葉は私は出していない
「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは
人間の「理解」と同じじゃないのかな?
>[俺] 選択肢AとBとCを選択出来るとします
>AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします
>私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか?
>
>[GPT-4] この問題はじゃんけんに似ていますね。
>AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、
>あなたがBを選択した場合、私が勝つためにはCを選択することになります。
>
>[俺] Bに勝つ選択肢は何ですか?
>
>[GPT-4] Bに勝つ選択肢はAです。
>問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。
>
>[俺] 先ほどあなたは私に勝つためにCを選択すると言いました
>なぜAを選択すると言わなかったのですか?
>
>[GPT-4] 失礼いたしました。誤解がありました。
>あなたがBを選択した場合、私が勝つためには、
>確かにAを選択するべきです。AはBに勝つからです。
>先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。
何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると
「循環関係」という言葉を使って正しく説明した
ちなみに循環関係という言葉は私は出していない
「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは
人間の「理解」と同じじゃないのかな?
2023/03/23(木) 11:09:40.86ID:Xtco/EqT
最初に間違うのいやらしい
2023/03/23(木) 13:33:15.40ID:nf6utcDi
>>67
その例では訂正すると正しく直ってきたが、それはたまたまで、
直らないケースがあったり、時々間違えるケースがある。
じゃんけんの場合でもそういうケースを見た。10回位やっても
ほぼ10回間違えてた。
その例では訂正すると正しく直ってきたが、それはたまたまで、
直らないケースがあったり、時々間違えるケースがある。
じゃんけんの場合でもそういうケースを見た。10回位やっても
ほぼ10回間違えてた。
2023/03/23(木) 13:40:11.01ID:nf6utcDi
2023/03/23(木) 13:55:55.80ID:rQpQMC7M
> [GPT-4] 私が最初にBを選択したという情報を適切に処理できなかった理由は、
> 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと
> それに対する私の選択肢の関係性を考慮することができなかったためです。
> 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、
> その中でCがAに勝つという情報に引きずられ、
> あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。
どういうロジックかいまいち分からん
> 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと
> それに対する私の選択肢の関係性を考慮することができなかったためです。
> 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、
> その中でCがAに勝つという情報に引きずられ、
> あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。
どういうロジックかいまいち分からん
2023/03/23(木) 19:13:14.87ID:yArP3l85
>>71
C>A>B
という数学でいうところの「順序関係(大小関係)」があると思っているのかもしれない。
だから、あなたがBを出したら、AIは、最強であると思っているところのCを選んで
しまった、のかも。
「三すくみ」的な概念は、数学では論理的な分野ではいくらでもありえるが、
数直線の様な大小を伴う数量関係では扱わないから。
C>A>B
という数学でいうところの「順序関係(大小関係)」があると思っているのかもしれない。
だから、あなたがBを出したら、AIは、最強であると思っているところのCを選んで
しまった、のかも。
「三すくみ」的な概念は、数学では論理的な分野ではいくらでもありえるが、
数直線の様な大小を伴う数量関係では扱わないから。
2023/03/23(木) 19:16:59.25ID:yArP3l85
>>72
数学では、集合の要素を一直線に並べられるような「順序集合」の概念もあるが、
それとは別に「推移律」の概念も有る。
もちろん、概念があるだけで、どちらも、必ず成り立つようなものではないが。
推移律によれば、A op B かつ B op C なら、A op C が成り立つというようなもので、
これもまた大小関係と関係の深い概念。
そして、自然界には割りと良くあるから、学習の結果、そういう直感が
身についてしまったのかも知れない。知らんけど。
数学では、集合の要素を一直線に並べられるような「順序集合」の概念もあるが、
それとは別に「推移律」の概念も有る。
もちろん、概念があるだけで、どちらも、必ず成り立つようなものではないが。
推移律によれば、A op B かつ B op C なら、A op C が成り立つというようなもので、
これもまた大小関係と関係の深い概念。
そして、自然界には割りと良くあるから、学習の結果、そういう直感が
身についてしまったのかも知れない。知らんけど。
2023/03/23(木) 19:42:28.31ID:n8vgmLmf
単にある単語の次にどの単語が来る確率が高いかの確率分布に基づいて文章を生成してるだけなのにロジックなんか理解してるわけがないだろ。
2023/03/23(木) 20:35:11.55ID:rQpQMC7M
言語ってのは脳内のロジックが投影されたもの
文章自体にロジックは内在しているので
確率分布に基づいて文章を生成すると
ロジックを理解したかのような文章が生成される
文章自体にロジックは内在しているので
確率分布に基づいて文章を生成すると
ロジックを理解したかのような文章が生成される
76デフォルトの名無しさん
2023/03/23(木) 20:36:52.36ID:mBtK7sgT2023/03/23(木) 20:56:26.36ID:1nQTmSRK
言語には実世界を記述する機能もあって
その部分は五感と切り離せない
抽象的な記号操作だけではないからな
その部分は五感と切り離せない
抽象的な記号操作だけではないからな
2023/03/23(木) 21:17:02.88ID:Qr2E1vlk
板違いのスレで更にスレ違いの書き込みで上げるとかキチガイすぎる
2023/03/23(木) 21:22:39.90ID:rQpQMC7M
自己紹介乙
2023/03/23(木) 21:27:35.06ID:kB82dtis
2023/03/23(木) 21:32:18.45ID:DVXcxXu8
なんか今はみんな自由に自然言語で質問するようにプロンプト打ってるけど
「○○で△△してください」みたいな部分ってクラス化できるだろうし
そのうちプログラミング言語化しそうだな
もうしてるのかな
文法でいうと、再帰とか関数定義とか一切無い感じで
小説家(クラス)や登場人物or性格など(サブクラス)を定義して
if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか
「○○で△△してください」みたいな部分ってクラス化できるだろうし
そのうちプログラミング言語化しそうだな
もうしてるのかな
文法でいうと、再帰とか関数定義とか一切無い感じで
小説家(クラス)や登場人物or性格など(サブクラス)を定義して
if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか
2023/03/23(木) 22:22:36.36ID:mBtK7sgT
2023/03/23(木) 22:27:27.67ID:NhbsK42j
2023/03/23(木) 22:31:40.81ID:NhbsK42j
テトリスやブロック崩しなどは、ネットにそっくりそのままの例が書いてある。
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。
2023/03/23(木) 22:37:21.12ID:kB82dtis
>>82
何が言いたいのかさっぱりわからん
高速な計算にコンピュータを使うのは当たり前だし
今までもそれはやってきたこと
AIは人間のように理解してるんじゃなくて
会話のような返答するプログラムでそれっぽく見せてるだけって話だ
人間と違う方法で高速な計算ができる電卓が便利なのは当たり前
何が言いたいのかさっぱりわからん
高速な計算にコンピュータを使うのは当たり前だし
今までもそれはやってきたこと
AIは人間のように理解してるんじゃなくて
会話のような返答するプログラムでそれっぽく見せてるだけって話だ
人間と違う方法で高速な計算ができる電卓が便利なのは当たり前
2023/03/23(木) 22:40:40.33ID:qBpx1Wc1
高度なサイコロシステムだ
2023/03/23(木) 22:41:06.57ID:kB82dtis
ネットという膨大なデータベースを使えば
知能がなくても、人間が話すような文章を
計算で作り出せるってことがわかったということだよ
知能がなくても、人間が話すような文章を
計算で作り出せるってことがわかったということだよ
2023/03/23(木) 22:42:18.04ID:kB82dtis
ネットには人間が「ああ言えばこう言う」という例がいくつも有る
そこから適切なものを見つけ出し、それっぽく加工しているだけ
そこから適切なものを見つけ出し、それっぽく加工しているだけ
2023/03/23(木) 22:51:21.93ID:mBtK7sgT
>>87
あなたが特に定義もせず使っている「知能」とは何のことを指すのですかという質問だよ
あなたが特に定義もせず使っている「知能」とは何のことを指すのですかという質問だよ
2023/03/23(木) 22:54:18.48ID:mBtK7sgT
>>83
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ)
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ)
2023/03/23(木) 23:01:01.18ID:NhbsK42j
>>90
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。
2023/03/23(木) 23:03:18.46ID:NhbsK42j
>>91
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。
2023/03/23(木) 23:05:28.41ID:mBtK7sgT
>>91
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね
2023/03/23(木) 23:07:50.44ID:aGomThyA
>>93
ルール書いて、総当たりすれば良くね?
ルール書いて、総当たりすれば良くね?
2023/03/23(木) 23:08:07.19ID:NhbsK42j
2023/03/23(木) 23:10:42.05ID:NhbsK42j
そもそも、ChatGPTは、テトリスが何たるものかも理解してなくて、
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。
2023/03/23(木) 23:15:07.90ID:mBtK7sgT
>>94-95
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。
2023/03/23(木) 23:17:20.04ID:NhbsK42j
人間の場合は、プログラムコードでも、1行ずつ実行を辿っていって、
変数に何が入るかをシミュレーションできる。だから、根本的に間違っているコードは
自分でも分かる。
バグが入るのは、シミュレーションに間違いや勘違いが紛れ込むから。
でも、指摘されればちゃんと分かる。
ChatGPTの場合は、指摘されてもちゃんと訂正できてない。
また、明らかに間違っているコードを平然と出してくる。
人間の場合だと、それが間違っていることが分かるから「分かりません」と言う。
変数に何が入るかをシミュレーションできる。だから、根本的に間違っているコードは
自分でも分かる。
バグが入るのは、シミュレーションに間違いや勘違いが紛れ込むから。
でも、指摘されればちゃんと分かる。
ChatGPTの場合は、指摘されてもちゃんと訂正できてない。
また、明らかに間違っているコードを平然と出してくる。
人間の場合だと、それが間違っていることが分かるから「分かりません」と言う。
2023/03/23(木) 23:19:03.00ID:mBtK7sgT
>>96
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。
100デフォルトの名無しさん
2023/03/23(木) 23:21:24.61ID:NhbsK42j >>97
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。
その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
人間で言えば「思考型」ではなく「記憶型」タイプ。
プログラマに求められるのは、思考型。
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。
その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
人間で言えば「思考型」ではなく「記憶型」タイプ。
プログラマに求められるのは、思考型。
101デフォルトの名無しさん
2023/03/23(木) 23:22:51.89ID:NhbsK42j102デフォルトの名無しさん
2023/03/23(木) 23:22:56.00ID:NhbsK42j103デフォルトの名無しさん
2023/03/23(木) 23:24:49.21ID:aGomThyA chatGPTは、言って見れば、文系のサイエンスライターなんだよね
中身はよく分からないけど、それらしい言葉を繋げてもっともらしい文章をでっち上げるのは得意
中身はよく分からないけど、それらしい言葉を繋げてもっともらしい文章をでっち上げるのは得意
104デフォルトの名無しさん
2023/03/23(木) 23:28:06.09ID:mBtK7sgT >>100
あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか?
出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。
あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。
あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか?
出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。
あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。
105デフォルトの名無しさん
2023/03/23(木) 23:30:29.28ID:NhbsK42j106デフォルトの名無しさん
2023/03/23(木) 23:31:50.16ID:NhbsK42j >>104
一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。
問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。
ChatGPTは、じゃんけんのルールを何度言われても理解できない。
一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。
問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。
ChatGPTは、じゃんけんのルールを何度言われても理解できない。
107デフォルトの名無しさん
2023/03/23(木) 23:33:21.41ID:NhbsK42j それにもっといえば、ChatGPTに、どんなプログラムを作ってほしいか、
自然言語で伝えるのがとても難しいということもある。
自然言語で伝えるのがとても難しいということもある。
108デフォルトの名無しさん
2023/03/23(木) 23:53:09.17ID:mBtK7sgT109デフォルトの名無しさん
2023/03/23(木) 23:57:26.38ID:NhbsK42j >>108
どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。
どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。
110デフォルトの名無しさん
2023/03/24(金) 00:00:26.56ID:l2RKIzBo >>109
それは同意するけど、「知能」についてはどうなんですか?
それは同意するけど、「知能」についてはどうなんですか?
111デフォルトの名無しさん
2023/03/24(金) 00:01:42.15ID:q5FRhgwv >>110
じゃんけんのルールが正しく適用できないので、論理は弱いと思う。
じゃんけんのルールが正しく適用できないので、論理は弱いと思う。
112デフォルトの名無しさん
2023/03/24(金) 00:03:15.08ID:l2RKIzBo >>111
了解
了解
113デフォルトの名無しさん
2023/03/24(金) 00:03:19.05ID:pawTSNk+ 知能なんて無いだろ
114デフォルトの名無しさん
2023/03/24(金) 00:20:27.62ID:q5FRhgwv githib copilotは、githubの大量のプログラムを学習した結果に基いて
プログラムを生成する。それが流行れば、GPLが実質的にBSD系ライセンス
の様に扱われることになるから、GPL汚染がなくなって平和になるかも。
プログラムを生成する。それが流行れば、GPLが実質的にBSD系ライセンス
の様に扱われることになるから、GPL汚染がなくなって平和になるかも。
115デフォルトの名無しさん
2023/03/24(金) 00:22:21.61ID:STP4y0mB tar.xzの中のファイルを巡回するのにlibarchive使おうかなと
サンプルコード検索してみたけど
ぐじゃぐじゃしていたのでGPT-4に書かせたら一瞬で終わった
小規模なコードで自分で正誤判定できるようなら
圧倒的に時間短縮になるよ
サンプルコード検索してみたけど
ぐじゃぐじゃしていたのでGPT-4に書かせたら一瞬で終わった
小規模なコードで自分で正誤判定できるようなら
圧倒的に時間短縮になるよ
116デフォルトの名無しさん
2023/03/24(金) 00:24:38.27ID:STP4y0mB >>114
それどうなんかな? AIの生成物の著作権って決着はついてるの?
それどうなんかな? AIの生成物の著作権って決着はついてるの?
117デフォルトの名無しさん
2023/03/24(金) 10:14:28.93ID:xr286lJh >>116
そもそもGPL自体が、本来の著作権法の趣旨に反しているのでライセンスとして
有効かどうか議論の余地がある。
著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
別の思想(左翼的)の方向に持っていってしまうし。
そもそもGPL自体が、本来の著作権法の趣旨に反しているのでライセンスとして
有効かどうか議論の余地がある。
著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
別の思想(左翼的)の方向に持っていってしまうし。
118デフォルトの名無しさん
2023/03/24(金) 10:21:00.94ID:xr286lJh 著作権法では、「引用」も認められているし、色々な本から少しずつ引用して
全体として百科事典の様なものを作ることは許されているはず。
GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な
思想。
全体として百科事典の様なものを作ることは許されているはず。
GPLは、少しでも使ったら、別人のソースコードを盗もうとするような悪徳な
思想。
119デフォルトの名無しさん
2023/03/24(金) 11:41:02.53ID:STP4y0mB >>117
日本で判例があるかは承知してないが
GPLでライセンスされたソフトウェアを利用した製品を販売している会社は
GPLが有効であると考えているから必ずGPLの表示している
>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>別の思想(左翼的)の方向に持っていってしまうし。
詳しく
日本で判例があるかは承知してないが
GPLでライセンスされたソフトウェアを利用した製品を販売している会社は
GPLが有効であると考えているから必ずGPLの表示している
>著作権法が守りたいと思ったものと別のものを守ろうとして、社会全体を
>別の思想(左翼的)の方向に持っていってしまうし。
詳しく
レスを投稿する
