あーあるね。存在しない関数名。
少なくともリファレンスやらの言語の仕様はまったく学習してないな

AIだからそういうルールの記憶がしっかり出来るかと思ってたけど、それは大間違いで、
今のGPTとかは人間的のような感覚的フィーリングで物事を理解するほうに特化してる
画像生成AIなんかと同じで、その言語のソースの感覚的なパターンを覚えてる感じ
絵を作る方のAIも指が6本有ったり変なキメラを作る感じで、あまりきっちりとはしてないけど
チャットAIもそういうきっちりした仕事はできない。

かなりウソやありもしない情報を作るクセがあるのはOpenAIの開発者やMicrosoftも認めててその問題の解決にも努めてるみたいだけど
ハッキリとした原因は分かってないようだ。今のAIを作る方法だと、なぜかそういうクセが出てしまうらしい