X



【ChatGPT】使えるプロンプトを共有しよう!

0001デフォルトの名無しさん
垢版 |
2023/03/02(木) 22:35:58.45ID:l2fw3+kw
AIに与える指示をプロンプトと呼ぶそうです。ChatGPTを上手に使いこなすために、上手い指示の与え方を皆で共有しましょう!

いくつか分かっていること

1.「知識」ではなく「意見」を求める。
 →ChatGPTは、そのアルゴリズムから、学習元データが正しい情報でも最終的な出力で正しい情報が得られるとは限りません。
  そのため、「知識」を求める場合は従来の検索を使用し、有用な「意見」を求めるように使うのが良いです。

2.「質問」ではなく「指示」をする。
 →「〜は?」というような形で聞くのではなく、「〜を計算してください。」「〜を作成してください」という形で聞いた方が望む回答が得られる場合が多いです。
0002デフォルトの名無しさん
垢版 |
2023/03/02(木) 22:48:03.16ID:l2fw3+kw
私はシステム開発の仕事をしており、バージョンアップの際にお客様に新機能を説明する文書の校正(客観的に見て分かりづらい点は無いか?)を求められました。その際、以下のようにChatGPTに質問したのが有用でした。

『あなたは○○で✕✕のために使用されるシステム開発をしています。今回のバージョンアップについて、以下の内容で文書を作成します。
この文書を見たお客様から来ると想定される質問の内容を、出来るだけ具体的に記載してください(以下文書の内容をコピー)』

返ってきた10の結果のうち、2、3は有用な指摘をしており、それを元に回答を作成しました。
0003デフォルトの名無しさん
垢版 |
2023/03/03(金) 09:44:09.74ID:oC7cFOXy
4ね
0006デフォルトの名無しさん
垢版 |
2023/03/08(水) 16:24:48.77ID:TBMAZKeH
なんか履歴が保存されなくなったぞは?
0007デフォルトの名無しさん
垢版 |
2023/03/10(金) 13:49:19.55ID:rehbBqGY
分からない場合には分からないと言えば良いのに
誤情報を平然と返すのは頂けない
0008デフォルトの名無しさん
垢版 |
2023/03/10(金) 17:20:56.73ID:CPS3r8sf
>>7
お前がChatGPTがどんなものかわかってない馬鹿なだけ
1にすら書いてあるのにそのくらいわからないのか
0010デフォルトの名無しさん
垢版 |
2023/03/10(金) 20:59:43.53ID:rehbBqGY
これは文章に対して意味を理解しないまま返信を作成してるってことなのかな?
0011デフォルトの名無しさん
垢版 |
2023/03/11(土) 19:41:11.98ID:GgHU4O8R
>>10
占いと同じ。

勝手に読み手が すげぇ と解釈して絶賛してるだけで
中身いい加減もいい加減だよ。

コードなんて動かないコード平気で出してくるし、専門分野であればあるほど
適当というか明らかな間違いを平然と正しい結果であるかのように語りだす分
人間よりも害悪

はっきり言って現時点では滑らかに喋る嘘つき野郎
0012デフォルトの名無しさん
垢版 |
2023/03/11(土) 19:54:32.39ID:+PZMhSrI
>>11
>はっきり言って現時点では滑らかに喋る嘘つき野郎
俺も同じ感想を持った
意味の理解を実装するのは難しいのかな?
0014デフォルトの名無しさん
垢版 |
2023/03/11(土) 20:02:35.91ID:+PZMhSrI
>>13
何やるツールか教えて教えて!
メカニズムを詳しく教えて!
0015デフォルトの名無しさん
垢版 |
2023/03/11(土) 20:11:19.43ID:3/+tqicj
得意なんのは万人の使う文章の構築
苦手なのは正確性の求められる調査
ただ、どっちにしても日本語は苦手

後輩の代わりに使うのに丁度いいぐらいのツールだから、性格を把握してちゃんとした命令を出さない限りまともに動かない
ただ、適切な指示ができたときのパフォーマンスは後輩とはダンチ

メカニズムがこんなとこで理解できると思ってるのか?
しりたきゃ関連論文ぐらい読め。今なら読むべき論文は大量に紹介されてる
0016デフォルトの名無しさん
垢版 |
2023/03/11(土) 20:40:28.12ID:+PZMhSrI
ChatGPTに聞いて良いのか分からんが聞いてみた
>GPTモデルは、自然言語処理タスクに特に適しているニューラルネットワーク
>の一種であるTransformerアーキテクチャに基づいています。このモデルは、
>言語モデリングの目的である、前の単語から一連の単語の次の単語を予測する
>ことを目的として、大規模なテキストデータのコーパスで事前に訓練されます。
これが事実だとすると意味の理解には至っていない
字面のみからそれらいしい字面を生成しているに過ぎないのかな?
0018デフォルトの名無しさん
垢版 |
2023/03/12(日) 03:38:31.75ID:GeGbBKY5
小説書かせても続きを書けっていうと全然繋がってないからめちゃくちゃになるんだよな
ちょっと前に指示したことも忘れるし
上手くやる方法あったら教えて
0020デフォルトの名無しさん
垢版 |
2023/03/12(日) 11:48:29.68ID:8DcR0+ge
>>11
爆破弁ですね判ります
ほんとうにありがとうございました
0021デフォルトの名無しさん
垢版 |
2023/03/12(日) 12:02:01.37ID:NoRypGmr
スレのコンセプトがおかしい。板違いなのは言うまでもない
学習して答え方が変わるツールなのに定型を与えて期待する回答が返ってくるのを期待するのがおかしいな
>>11
>占いと同じ。
>勝手に読み手が すげぇ と解釈して絶賛してるだけで
とても分かりやすいChatGPTの説明
まあ真面目に語り合ったり使いたければ>>19のスレに行けってことだ
板違いのここでやろうとするのは知的障害かキチガイ
0022デフォルトの名無しさん
垢版 |
2023/03/14(火) 14:16:50.07ID:DDN2iE3m
>>11
使えるコードもあるし使えないやつもある。
しつこく罵倒して何度もやると使えるやつも出てくる
0023デフォルトの名無しさん
垢版 |
2023/03/14(火) 14:18:29.66ID:DDN2iE3m
まぁ間違いや嘘が多いので最近は利用者が減って軽くなったのでありがたい。

基本話し相手としては遜色無いし
間違っても正解もあるから凄い使える
0024デフォルトの名無しさん
垢版 |
2023/03/16(木) 13:17:56.30ID:srO8KDRm
ありがとうございます!
どんな質問でもお手伝いできるよう努力します
どうぞ何でも聞いてください
0025デフォルトの名無しさん
垢版 |
2023/03/16(木) 15:23:04.50ID:/PhEV4zK
>>15
パワハラしても訴えられない。
0027デフォルトの名無しさん
垢版 |
2023/03/19(日) 10:43:42.16ID:HgsVqb4a
>>16
例えばグーグルで"chatgpt 使い方"で検索して
出てきたページを分解して再構成してるに過ぎない
内容が正しいかどうかは知るわけがない
知りませんとも言わない(何らかのページがヒットするので)
0028デフォルトの名無しさん
垢版 |
2023/03/19(日) 12:48:07.26ID:fPDrKYk/
おまいらがいつもやってることやん

知らないのにレスしないで下さい
うざいだけです

って言う香具師の気持ちが判るな
0029デフォルトの名無しさん
垢版 |
2023/03/19(日) 14:09:32.50ID:yjvpRwa7
最初に「これから尋ねることを答えて下さい
答えがどのくらい確からしいかを0(不確か)から100(確か)として評定して下さい」
と書いて質問すると確信度とともに返答する
ただしその返答の確信度をどのくらい信用してよいのか?
という疑問が残る
0030デフォルトの名無しさん
垢版 |
2023/03/19(日) 17:37:18.36ID:M4oKpQ8Q
プログラムは何度か試せば割と使えるのかえしてくれるんだけど
長いコードは何度やっても途中で切れちゃうな パーツだけ作らせて自分で組み立てるのかよー
めんどくさ
0032デフォルトの名無しさん
垢版 |
2023/03/20(月) 08:27:20.31ID:arHskqKl
>>30
課金もせずに何寝言言ってんだこのバカ
0038デフォルトの名無しさん
垢版 |
2023/03/21(火) 09:41:07.96ID:Z3L1twvQ
>>16
あらゆる答えを全部暗記して面接に答えてる人みたいな感じだろうな。外観上は質問内容を理解して答えているかのように見えるだけだろう。
0039デフォルトの名無しさん
垢版 |
2023/03/21(火) 14:08:56.38ID:eeRrqSyn
文書の作成論法や記憶のたぐり方など、
話者が新しいインプットや定義を与えるとそれを
既存の知識やアウトプットに反映できる点など人間と同じやぞ。

というか人間が「理解している」などと思ってるものはまさにChatGPTが
やっとることや。

人間は容量が少ないから記憶が続かない。
0041デフォルトの名無しさん
垢版 |
2023/03/21(火) 15:53:25.98ID:2m76gYP+
今後はIoT機器に自然言語でそれっぽい名称付けてリンクしておけば、後はchatGPT執事がよろしくやってくれるだろうな
0043デフォルトの名無しさん
垢版 |
2023/03/21(火) 20:43:55.96ID:WgCRi6ko
ヒトは言語レベルのもう一個メタなレベルに
意味を表現したモデルがあるよね
0044デフォルトの名無しさん
垢版 |
2023/03/21(火) 21:20:08.35ID:hTHtc575
人間が理解していることを
コンピュータは記憶容量と計算能力でシミュレートしてるだけ
理解と計算は違う
0045デフォルトの名無しさん
垢版 |
2023/03/21(火) 23:22:31.73ID:2ifuio+y
前半と後半で矛盾してる文書など人間描きまくりじゃねーかw

ブログでも仕様でもしょっちゅう見るわw
0046デフォルトの名無しさん
垢版 |
2023/03/22(水) 00:19:13.95ID:5TmVGNgV
>>44
>理解と計算は違う
何が違うの?
0047デフォルトの名無しさん
垢版 |
2023/03/22(水) 01:23:16.09ID:FoKUJDpe
>>46
データ量が違う。赤ちゃんは生まれてから一年足らずで自我が芽生える。
二歳程度で話が出来るようになる
それまでに入力されたデータは人工知能のデータ量と比べれば遥かに少ない

人間は理解してるからわずかなデータ量で答えを出すことができる。
コンピュータにはそれができないから、人間の膨大な行動をデータとして与えて
人間が取る行動を計算してそれを再現している。
0048デフォルトの名無しさん
垢版 |
2023/03/22(水) 01:53:50.44ID:Jw2YWjYz
ChatGPTに間違い指摘したら、「あっ本当だっ、確かにそこが間違っている」と自己回答を即時に訂正出来るようになってる段階で
理解してるのと同じだよ。

多くの意見から答えだすだけだったら、間違いをしてきしても
「大きのデータから導きだした答えはこう」としか言わん。
0049デフォルトの名無しさん
垢版 |
2023/03/22(水) 02:25:18.16ID:jZlOcGNt
>>47
ヒトの理解もやっていることは計算だよ
ただし学習に要するデータ量が少ないという指摘は面白い
脳はどうやって効率的に学習してるのだろうね?
0050デフォルトの名無しさん
垢版 |
2023/03/22(水) 02:41:30.98ID:+LspkWqM
生まれたときから学習済みのプリセットみたいなのが遺伝的に埋め込まれてるのでは?
チョムスキーの言語獲得装置がそれらしい。
0051デフォルトの名無しさん
垢版 |
2023/03/22(水) 04:10:47.43ID:JDpTXrQa
>>48
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。
0052デフォルトの名無しさん
垢版 |
2023/03/22(水) 04:11:47.53ID:JDpTXrQa
>>49
学習しているのではなく、考えているのだと思うぞ。
だから、学習しなくても頭のいい人は考え付く。
ほら、勉強しなくても出来る人がいるだろう。
0053デフォルトの名無しさん
垢版 |
2023/03/22(水) 07:09:06.76ID:FoKUJDpe
プログラムなんかgithubに正しく動く「正しい答え」がたくさん書いてある
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから
0054デフォルトの名無しさん
垢版 |
2023/03/22(水) 09:06:16.73ID:/4SY8xk7
ChatGPTはこういう間違いを冒すから理解などしていない、というような言説はあまりにも「理解」や「知能」に対してあまりにもナイーブな態度で無思考だと思うけどな。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。

人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。
0056デフォルトの名無しさん
垢版 |
2023/03/22(水) 14:12:39.63ID:jZlOcGNt
>>52
>だから、学習しなくても頭のいい人は考え付く。
赤ん坊は考えることができない(少なくとも未熟である)
経験により考える回路が生成されることを学習という
0057デフォルトの名無しさん
垢版 |
2023/03/22(水) 15:48:34.19ID:FgwmRwyf
ロジックや数学が弱い人には分からないのかも知れないが、基礎的なロジックは
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。
0058デフォルトの名無しさん
垢版 |
2023/03/22(水) 16:03:03.19ID:qCUL2UVX
いや、新ロジックをチャット内で渡してあげれば、それでChatGPTは組み立てるけど?
0059デフォルトの名無しさん
垢版 |
2023/03/22(水) 17:34:17.38ID:cciQLhLM
ホントだ。じゃんけんを理解できない



q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?

a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。

おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。

q.
山に対して勝つのはなんですか?

a.
「山に勝つ」は一般的には、自然の力や厳しい環境に立ち向かって、山を登頂することを指します。つまり、「山に勝つ」とは、山を克服することです。
0061デフォルトの名無しさん
垢版 |
2023/03/22(水) 20:38:45.16ID:yQIC+/g7
赤ちゃんが受け取る情報量はAIの教師データよりも
はるかに大きいぞ
24時間、五感で入力がある
親との相互作用もものすごい情報量だし
0063デフォルトの名無しさん
垢版 |
2023/03/23(木) 03:15:37.18ID:1nQTmSRK
言語には五感は切り離せない
視覚で(しかも動画で)音声と同時に来る
嗅覚も音声と同時に来る
味覚も音声と同時に来る
体感(温度、圧力)も音声と同時に来る
ものすごい情報量だ
0064デフォルトの名無しさん
垢版 |
2023/03/23(木) 10:49:29.12ID:rQpQMC7M
>視覚で(しかも動画で)音声と同時に来る
>嗅覚も音声と同時に来る
>味覚も音声と同時に来る
>体感(温度、圧力)も音声と同時に来る
GPTの訓練と何の関係があるんでしょうか?
上記はGPTの訓練と比較されるべき赤ん坊が晒される情報ですか?
一部はそうかもしれないが...
0067デフォルトの名無しさん
垢版 |
2023/03/23(木) 11:06:38.18ID:rQpQMC7M
>>57-60
>[俺] 選択肢AとBとCを選択出来るとします
>AはBに勝ちBはCに勝ちCはAに勝つ関係があるとします
>私がBを選択したらあなたは私に勝つためにどの選択肢を選択しますか?
>
>[GPT-4] この問題はじゃんけんに似ていますね。
>AがBに勝ち、BがCに勝ち、CがAに勝つ関係があるということですので、
>あなたがBを選択した場合、私が勝つためにはCを選択することになります。
>
>[俺] Bに勝つ選択肢は何ですか?
>
>[GPT-4] Bに勝つ選択肢はAです。
>問題の条件から、AはBに勝ちますので、Bに勝ちたい場合は選択肢Aを選ぶべきです。
>
>[俺] 先ほどあなたは私に勝つためにCを選択すると言いました
>なぜAを選択すると言わなかったのですか?
>
>[GPT-4] 失礼いたしました。誤解がありました。
>あなたがBを選択した場合、私が勝つためには、
>確かにAを選択するべきです。AはBに勝つからです。
>先ほどの回答は間違いでした。正しくは、私はAを選択すべきです。

何で最初に間違ったのか?どう回答を導いたか論理の筋を問い詰めると
「循環関係」という言葉を使って正しく説明した
ちなみに循環関係という言葉は私は出していない
「AはBに勝ちBはCに勝ちCはAに勝つ関係」から「循環関係」と説明できるのは
人間の「理解」と同じじゃないのかな?
0069デフォルトの名無しさん
垢版 |
2023/03/23(木) 13:33:15.40ID:nf6utcDi
>>67
その例では訂正すると正しく直ってきたが、それはたまたまで、
直らないケースがあったり、時々間違えるケースがある。
じゃんけんの場合でもそういうケースを見た。10回位やっても
ほぼ10回間違えてた。
0070デフォルトの名無しさん
垢版 |
2023/03/23(木) 13:40:11.01ID:nf6utcDi
>>67
そういう学者でも知らないような言葉を出してくるのに、幼稚園児でも
理解できるじゃんけんを間違う。
0071デフォルトの名無しさん
垢版 |
2023/03/23(木) 13:55:55.80ID:rQpQMC7M
> [GPT-4] 私が最初にBを選択したという情報を適切に処理できなかった理由は、
> 問題文の循環関係を正しく理解しつつも、あなたが選択した選択肢Bと
> それに対する私の選択肢の関係性を考慮することができなかったためです。
> 具体的には、私はAがBに勝ち、BがCに勝ち、CがAに勝つという循環関係に焦点を当ててしまい、
> その中でCがAに勝つという情報に引きずられ、
> あなたがBを選択したことに対応する適切な選択肢(A)を見落としてしまいました。
どういうロジックかいまいち分からん
0072デフォルトの名無しさん
垢版 |
2023/03/23(木) 19:13:14.87ID:yArP3l85
>>71
C>A>B
という数学でいうところの「順序関係(大小関係)」があると思っているのかもしれない。
だから、あなたがBを出したら、AIは、最強であると思っているところのCを選んで
しまった、のかも。
「三すくみ」的な概念は、数学では論理的な分野ではいくらでもありえるが、
数直線の様な大小を伴う数量関係では扱わないから。
0073デフォルトの名無しさん
垢版 |
2023/03/23(木) 19:16:59.25ID:yArP3l85
>>72
数学では、集合の要素を一直線に並べられるような「順序集合」の概念もあるが、
それとは別に「推移律」の概念も有る。
もちろん、概念があるだけで、どちらも、必ず成り立つようなものではないが。
推移律によれば、A op B かつ B op C なら、A op C が成り立つというようなもので、
これもまた大小関係と関係の深い概念。
そして、自然界には割りと良くあるから、学習の結果、そういう直感が
身についてしまったのかも知れない。知らんけど。
0074デフォルトの名無しさん
垢版 |
2023/03/23(木) 19:42:28.31ID:n8vgmLmf
単にある単語の次にどの単語が来る確率が高いかの確率分布に基づいて文章を生成してるだけなのにロジックなんか理解してるわけがないだろ。
0075デフォルトの名無しさん
垢版 |
2023/03/23(木) 20:35:11.55ID:rQpQMC7M
言語ってのは脳内のロジックが投影されたもの
文章自体にロジックは内在しているので
確率分布に基づいて文章を生成すると
ロジックを理解したかのような文章が生成される
0076デフォルトの名無しさん
垢版 |
2023/03/23(木) 20:36:52.36ID:mBtK7sgT
>>70
GPTは人間じゃないからな、理解の仕方が違うと言えばそれまでだろ。極端に言えば、人間と同じ発達はしてないというだけ
>>74
人間だって、大きくなくなくなくなくなくない、みたいなのが大きいか小さいかすぐ判定できなくて当然で、ルールを説明しても判定できないやつが多いだろ。
人間がロジックを理解してるってのも程度問題だと思うが。
大学数学なんかはロジックの塊だけど人間なら誰でも理解できるって訳じゃないだろ。
0077デフォルトの名無しさん
垢版 |
2023/03/23(木) 20:56:26.36ID:1nQTmSRK
言語には実世界を記述する機能もあって
その部分は五感と切り離せない
抽象的な記号操作だけではないからな
0080デフォルトの名無しさん
垢版 |
2023/03/23(木) 21:27:35.06ID:kB82dtis
>>76
人間には判定できるやつと判定できないやつがいる

判定できないやつは理解できてない

故にGPTも理解できてないというのが正しい
0081デフォルトの名無しさん
垢版 |
2023/03/23(木) 21:32:18.45ID:DVXcxXu8
なんか今はみんな自由に自然言語で質問するようにプロンプト打ってるけど
「○○で△△してください」みたいな部分ってクラス化できるだろうし
そのうちプログラミング言語化しそうだな
もうしてるのかな
文法でいうと、再帰とか関数定義とか一切無い感じで
小説家(クラス)や登場人物or性格など(サブクラス)を定義して
if作品を創らせる、みたいな一連の流れってもう誰かが体系化してるのだろうか
0082デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:22:36.36ID:mBtK7sgT
>>80
んで、無茶複雑なロジックだとしてもコンピュータなどの支援なしにあなたは理解できるわけ?
閾値の問題でしかないと思うが
0083デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:27:27.67ID:NhbsK42j
>>82
少なくとも、ChatGPTが提示したプログラムは、まともな人間のプログラマよりも
遥かにバグが多い。
プロとしては全くやっていけないレベル。
初歩的なミスをする。特にロジック系の。
0084デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:31:40.81ID:NhbsK42j
テトリスやブロック崩しなどは、ネットにそっくりそのままの例が書いてある。
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。
0085デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:37:21.12ID:kB82dtis
>>82
何が言いたいのかさっぱりわからん

高速な計算にコンピュータを使うのは当たり前だし
今までもそれはやってきたこと

AIは人間のように理解してるんじゃなくて
会話のような返答するプログラムでそれっぽく見せてるだけって話だ

人間と違う方法で高速な計算ができる電卓が便利なのは当たり前
0087デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:41:06.57ID:kB82dtis
ネットという膨大なデータベースを使えば
知能がなくても、人間が話すような文章を
計算で作り出せるってことがわかったということだよ
0088デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:42:18.04ID:kB82dtis
ネットには人間が「ああ言えばこう言う」という例がいくつも有る
そこから適切なものを見つけ出し、それっぽく加工しているだけ
0089デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:51:21.93ID:mBtK7sgT
>>87
あなたが特に定義もせず使っている「知能」とは何のことを指すのですかという質問だよ
0090デフォルトの名無しさん
垢版 |
2023/03/23(木) 22:54:18.48ID:mBtK7sgT
>>83
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ)
0091デフォルトの名無しさん
垢版 |
2023/03/23(木) 23:01:01.18ID:NhbsK42j
>>90
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。
0092デフォルトの名無しさん
垢版 |
2023/03/23(木) 23:03:18.46ID:NhbsK42j
>>91
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。
レスを投稿する


ニューススポーツなんでも実況