実在しない参考文献、知らぬ間の「盗作」......学生の生成AI利用にどう向き合うべきか
桜井政成(立命館大学教授)
知らぬうちに「盗作」するリスク
レポート課題や卒業論文の作成に生成AIを使うことに、どのような問題があるのかをあらためて整理しておきたい。
まずもっとも大きな問題は、AIが作り出すコンテンツには、深層学習によってAIが取得した、著作権がある既存の著作物が含まれている可能性があることだ。しかもそこで、なにをどのように引用したのかをAI自身も説明できない点がさらに問題を深刻にする。出力生成に用いられているモデルの内部動作は実質的に検証不能であり、ブラックボックスとなっている。要は、それを使用している学生は知らず知らずに、盗作を行ってしまう可能性があるということだ。この点は、学生向けの各大学の注意喚起で、もっとも強調されていることのひとつでもある。
それから冒頭の例のように、生成AIは誤った内容を出力することがある。厄介なのは、不正確ながら、あたかも現実に存在するかのように繕った回答を生成することである。レポート課題でのもっとも分かりやすい例は、先に書いた「参考文献」である。現実に存在しない文献を引用して、現実に存在しない研究結果や発言を、レポートの文章内で展開させる。あまりにも当然のように違和感なく書かれるので、読んでいてもその「不正」を見落としかねない。