三木谷 浩史 2023/06/07

独裁者がAIを手にする時

 今年4月30日、群馬県の高崎市(たかざきし)で開かれたG7デジタル・技術大臣会合で、AIの適切な利用をめぐる閣僚宣言が採択された。

2023年G7技術大臣.png 

 ChatGPTというOpenAIの人工知能チャットボットが急速に広まるなか、国を越えて利用される膨大なデータの取り扱いが、いま、世界的な議論の的になっている。4月10日にはOpenAIのサム・アルトマンCEOが来日し、岸田文雄首相とも面会した。彼は自民党の「AIの進化と実装に関するプロジェクトチーム」の会合にも出席し、ChatGPTの活用についての提案を行ったという。

 AIの社会実装(じっそう)が急速に進められる上で意識しなければならないことは何か。僕が常々(つねづね)言っているのは、AIは魔法ではない、ということだ。ChatGPTは基本的にGoogleのサーチと同様、アルゴリズムに基づいた技術。ただ、それは「1+1=2」という単純な計算とは異なり、ChatGPTでは、幅広い分野の質問に対して、人間が自然と感じる詳細な回答を生成できる。言ってみれば、自ら判断して具体的な行動まで起こせてしまうものだ。

 ChatGPTはウェブ上の情報を集め、総合的・文法的に組み合わせながら予測に基づいた回答を行う。かつてAIが人間の「脅威」となるのは、遠い未来のことだと考えられていた。ところが、既存のアルゴリズムを進化させていった結果、強力な生成AIが誕生し、加速度的な進化を続けている様子を目の当たりにすると、新たな世界の扉が開こうとしていることを実感する。

TikTokへの懸念

 話は少しそれるが、こうした極めて大きなイノベーションが登場するところには、やはりアントレプレナーが活躍できるアメリカの土壌の豊かさを感じずにはいられない。

 ChatGPTを開発するOpenAIはシリコンバレーを中心とする投資家らが集まり、AIのオープンソース化を目指して設立され、元々は非営利団体だった。開発の継続には莫大な資金が必要だが、今年1月には、マイクロソフトがOpenAIに対し、今後、100億ドル(約1.3兆円)もの投資を行うことが報じられている。「このアルゴリズムを商用化したら、このようなことができる」というコンセプトに対して大勢のサポーターと資金が付き、実際にアイデアが瞬く(まばたく)間に実用化されてしまうのがシリコンバレーの凄味だろう。

 さて、ChatGPTが牽引するAIが世界の新しい扉を開けるとすれば、その先に待ち受けている「未来」を僕らはどのように考えるべきか。

 AIの急速な進歩でもたらされるリスクの観点から、開発の中止を求める声も様々な分野から上がっているのが実情だ。その理由の一つとして挙げられるのが、「何が真実か分からない世界をAIの進歩がもたらすのではないか」という懸念だ。

 SNSのことを考えてみても、中国企業が運営するTikTokに似たような懸念の声が上がっている。TikTokと言えば、若者が短い動画を簡単に投稿できるということで日本でも爆発的な人気となったが、アメリカなどでは「禁止すべきだ」という意見が広がっている。

 その理由は個人情報が中国政府や企業に渡り、不適切に利用される可能性があるからだけではないだろう。それ以上に問題なのは、そうしたSNSがともすれば簡単に世論を誘導したり、それこそテロを誘発したりできる危険を孕んで(はらんで)いることだと思う。実際、リテラシー(literacy)のまだ低い子どもたちがSNSから過剰な情報を浴びせられたり、AIから「危険な回答」を受け取ったりするような状況は、すでに僕らの身の回りでも起こっている。

 SNSは大量の情報が瞬時に拡散されるプラットフォームであり、社会への影響力は非常に大きい。他方で、誤った情報や偏った意見が広まり、社会的な混乱や分断を引き起こすこともあり得るのが実情だ。いま世界中を席巻(せっけん)する対話型AIが、それに拍車をかける可能性は決して否定できない。国家権力などが政治的な意図をAIの回答に含めることも、使い方次第で簡単にできてしまうかもしれないからだ。

プーチン賛美の回答も

 例えば、ロシア国内でロシア人が使うSNSにプーチンを賛美する情報を溢れさせれば、「プーチンはいい人ですか?」という質問に対して、AIは「彼は素晴らしい人物です」「ロシア国民を攻撃する西欧諸国から守ってくれます」などとその理由も含めて答えるかもしれない。

 AIの厄介な(やっかいな)点は、ウェブ上の過去の情報を集めて回答を生成するため、ネット上にフェイクニュースが溢れ続けた場合、間違った情報が正しいと判断されかねないことだ。

 さらに言えば、これはロシアや中国のような独裁的な国家に限った話ではない。トランプ前大統領のような影響力のある人物がフェイクニュースを発信し、それを支持する共和党のサポーターが情報を拡散したとする。結果としていとも簡単に多くの人が影響される状況は、前回の米大統領選の際にも実際に目にした光景だろう。リベラルなツールであるはずのインターネットが、権力者や独裁国家に都合が良いツールになるという皮肉が起こり得てしまうのだ。

 大量のデータを学習し回答を生成するAIは、その学習データやアルゴリズムによって、「真実」を歪める可能性がある。国家権力や政治的な勢力がAIを操作し、特定の情報を統制したり、自身の立場を正当化するための回答に誘導したりすることが当然懸念されるわけだ。

 そうしたリスクは、僕らは過去の歴史からも学ぶことができる。かつて太平洋戦争の際、日本でも国民に伝えられる情報が統制され、世論が作られていった時代があった。AIはそのような社会状況を容易に作り出してしまうかもしれない。

 もちろん、AIの進展は止めることはできないし、社会を大きく変えていく極めて重要なイノベーションだ。だからこそ、AIが持つ危険性についても国家レベルで継続的に考えて、一人ひとりのリテラシーを高めていく必要がある。