このページの本文へ

LLMに「隠れ人種差別」、アライメントによる是正に限界

2024年03月27日 06時57分更新

文● James O'Donnell

  • この記事をはてなブックマークに追加
  • 本文印刷

大規模言語モデル(LLM)には人種的なバイアスが含まれている。テック企業はバイアスを是正するために手作業でフィードバック訓練を実施しているが、効果は限定的であり、モデルが大規模になるにつれてバイアスは悪化することがわかった。

カテゴリートップへ

  • 角川アスキー総合研究所

MSIが変える、未来のクリエイターを育てる教育環境

アスキー・ビジネスセレクション

ピックアップ