>>97
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。

その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
人間で言えば「思考型」ではなく「記憶型」タイプ。
プログラマに求められるのは、思考型。