GPTって昔のseq2seqの進化系
LSTM使ってencoderの出力をdecoderに入れて変換してたところ
Attentionが出て来て、BERTが出て来てっていう進化系で
入力データに対して確率の高い文字や単語を順次返している感じじゃなかったっけ
似たようなデータセットをたくさん学習していれば
コピペにならない微妙な内容を返してくるかもね
結果コピペだったとしても確率が高いものを順次選んだ結果コピペになったというだけ