「街に失業者があふれようがおかまいなし」ビッグテックがAI開発に全力を注ぐ真の理由とは..「貧富の差」「モラル」を無視して進む<人工知能民主主義>に希望はあるか

人工知能はウソをつく【最終回】
清水亮

使う側の人間のモラルの問題

最初に戻るが、以上の状況を踏まえて「人工知能民主主義」に警鐘を鳴らす気持ちもAI研究家としてよくわかる。

人工知能民主主義において即急に問題になるとすれば、人工知能にどのようなデータを入力し、人工知能の出力をどのように解釈するかという、使う側の人間の「モラルの問題」なのではなかろうか?

意図的に何かに有利、または不利になるようなデータを誰かが学習させれば、人工知能は簡単に騙されてしまう。統治者として判断を委ねられる人工知能ができたとしたら、そこに入力するデータのほうに透明性が必要になる、ということだ。

もしもGoogleやMicrosoftといったビッグテックが、自社の経営をAIに委ねたら、それは「自社の利益を最大化する」といった目的に対して最適化されるだろうし、ChatGPTやGeminiはそれぞれ、MicrosoftとGoogleにとって都合の良い答えしか返さなくなるだろう。

なので、この分野で競争が起きることはむしろ健全で、もっと多くの組織や企業がいろいろな観点で独自の大規模モデルを作るべきだと個人的には強く思う。それこそが東氏の言う「訂正可能性」であり、「どのAIの意見が正しいのか」を議論するということだ。

1  2  3  4  5  6  7  8