GPT以後「知識の集積地」としてのネット空間は汚染されていく。私たちはいつまでWikipediaを信用できるのか
人工知能はウソをつく【第1回】
清水亮
急速に進化を続ける人工知能。日本政府も戦略会議を立ち上げ、その活用や対策について議論を始めた。一方、プログラマーで起業家、そして人工知能の開発を専門とする清水亮氏は「信頼に値するAIを生み出せるかどうかで私たちの未来は変わる」と喝破する。その清水さんによる人工知能についての連載、第一回のテーマは「ネット空間の汚染が始まる」です。
ある日の会話
「百科事典を作りたいんだけどさあ」
そういうと、担当編集者のYは目を細めた。
「なんですか、それは? 連載テーマの『人工知能』と関係してるんですか?」
「いや、この先、Wikipediaってますます信用ができなくなっていくと思うんだよね。もともとけっこういい加減な情報であふれている部分も多いんだけど、今後GPTみたいな大規模言語モデルでさらに間違った情報が増えていくから、あえて人間が編纂した百科事典が必要になってくると思うんだよ」
Wikipediaは関係者が編集することを許されていない。たとえ自分自身について間違った情報が書かれていても、修正することかできないのだ。
このルールによって、勘違いや誤読、もう古くなっている情報がそのまま放置されているケースもある。
Wikipediaが登場したばかりの頃は全体の記事が新しかったのだが、長い年月が経って古い記事が誤った、または古い情報のままになっているケースが散見されるようになった。