>>346
更新されない
次に出る新しいモデルは、また知識カットオフが新しくなるだろうけど
今あるモデルはそのまま

ファインチューニングしてもカットオフ以降の知識は排除されるから、基本的にこれは変わらない
(ただ、ファインチューニングに使うデータにカットオフ以降の新しいデータが混入していて、カットオフ以降の知識が混入することはあって、これは完全には避けられない
それでも、大半の知識は事前学習の時のもの)

ともかく、プラグインで外の世界の知識に接地していない素の状態のLLMを、調べ物に使うのは間違い