概要

国際機械学習会議(ICML 2026)は、査読プロセスにおいてAIを不正に利用した著者を検出し、提出論文の約2%にあたる497本を却下したことを発表した。ICMLは査読においてLLMの使用を明示的に禁止しており、今回の大量却下は学術会議として前例のない規模の対応となる。この措置は、AI時代における学術的誠実性の維持に向けた具体的な成功事例として、研究コミュニティに大きな波紋を呼んでいる。

検出手法——隠しテキスト透かしによるトラップ

今回用いられた検出手法は、論文中に人間の目には見えない隠しテキストの透かし(ウォーターマーク)を埋め込むというものだ。この隠しテキストにはAIシステムへの指示が含まれており、LLMが論文を読み込んで査読を生成する際に、特定の特徴的なフレーズを出力に含めるよう誘導する仕組みになっている。主催者はこれらの特徴的フレーズが査読コメントに出現するかどうかを確認することで、AIが査読に使用されたケースを特定した。この手法は、AI生成テキストの統計的検出とは異なり、意図的に仕掛けたトラップによる確実性の高い検出方法といえる。

学術出版における不正の広がり

今回の事態は、学術出版全体でAI不正が深刻化している状況の一端を示している。2025年には別のAI関連学会で査読の約5分の1がAI生成と見られることが判明し、また別の学会では数百件の捏造された引用が論文中に発見された。さらに2023年にはある出版社が8,000本の不正論文を撤回するという事態も起きている。AIツールの普及により、偽の学術論文や不正な査読の生成がますます容易になっており、学術界全体での対策が急務となっている。

今後の展望

ICML 2026の透かし検出手法の成功は、他の学術会議や学術誌にも同様の対策が広がる可能性を示唆している。一方で、AIの検出回避技術も進化し続けるため、検出手法とのいたちごっこが続くことも予想される。学術コミュニティにとって、査読の信頼性をいかに維持するかは今後も重要な課題であり続けるだろう。