LLM (大規模言語モデル) の再トレーニングは、主に、データが時間とともに変化する際にパフォーマンスを改善または維持するため、特定のユースケースに合わせて微調整するため、および新しいデータ解釈を組み込んで精度と関連性を高めるために行われます。ただし、モデルの予測の解釈可能性を確保することは、通常、再トレーニングの理由にはなりません。解釈可能性は、モデルの出力がどれだけ簡単に理解および説明できるかに関係しており、これは通常、再トレーニング プロセス自体ではなく、さまざまなテクニックや方法を通じて対処されます。これに関する参考資料は、モデルの再トレーニングと解釈可能性を別の概念として説明している IAPP AIGP Body of Knowledge にあります。