GPT以後「知識の集積地」としてのネット空間は汚染されていく。私たちはいつまでWikipediaを信用できるのか
GPT以後
ロボット型検索エンジンはなにもGoogleが最初ではなかった。検索エンジンそのものもGoogleが最初ではない。
Googleの価値を決定づけたのは、「ページランク」というアルゴリズムだった。
それはすなわちページの被リンク数が多ければ多いほどそのページには価値があり、価値があるページからのリンク数が多いほど、やはりそのページの価値は高いと推定するものだ。
しかし、これがうまく機能したのはGoogleがブレイクする直前のほんの数年のことだった。
Googleの意図に反し、このアルゴリズムを利用して、本来は価値のないページであるにも関わらず、無数のダミーサイトを作って相互にリンクし、ページランクを水増しする、いわゆるSEO(検索エンジン向け最適化)サイトが多数生まれた。
現在はSEOを専門にする会社などもあり、Googleは日夜SEO対策に頭を悩ませているが、決定打がない状況だ。
筆者のような古くからのインターネットユーザーから見れば、ダミーサイトなどを伴う過度のSEOはインターネットを混乱させるだけの野蛮な行為であり、意味のないスパムサイトを量産することは全く馬鹿げたことに思える。
もちろん、検索エンジンに対してページの内容をわかりやすく伝えるような「行儀のいいSEO」はこの限りではないが。
このダミーサイトの制作は昔から自動化されていた。
Googleがかなり積極的に人工知能への投資を行っていたのも、SEO業者が作ったダミーサイトを自動的に判別し、検索結果の精度を高めるためだった。
しかし、皮肉にもGoogleが発明し、無料で公開したトランスフォーマーという人工知能技術は、GPT(GPTのTはトランスフォーマーを意味する)を生み出し、検索エンジンにとっての悪夢を生んだ。
今やGPTで生成された文章を人間の生成した文章と完璧に区別することはできない。
それどころか、書いてある内容が真実かどうかすらわからない。
GPT以後のインターネットには、おそらく実在しないかもしれない店や製品や人物の情報が溢れていく。
いまのところは無事だと信じたいが、WikipediaさえいつのまにかGPTによって書き換わっている可能性がある。
それも暇な学生が、面白半分、遊び半分で。