AIチャットボット「チャットGPT」の開発で世界的な注目を集める、オープンAI社のサム・アルトマンCEO AIチャットボット「チャットGPT」の開発で世界的な注目を集める、オープンAI社のサム・アルトマンCEO

閉幕したG7広島サミットでAIの国際的なルール作りの合意がなされた。実際、AIの爆速進化に強い危惧を持つ研究者も世界中に多くいる。「AIの進化は人類の脅威になる」「AI開発には〝倫理〟が必要だ」そんな声の中、現役ホワイトハッカー「大佐」氏はあえて倫理の必要性を否定する。それはなぜか? 大佐氏にじっくり聞いた。

* * *

■自我を持ったAIの暴走?

質問を打ち込むと、すぐに自然な言葉で説得力のある回答が出力される米オープンAI社の対話型AI「ChatGPT(以下、チャットGPT)」。昨年11月に公開後、わずか2ヵ月で利用者数が1億人を超えるなど世界中で爆発的に広がった。

さらに新バージョン「GPT-4」がマイクロソフトの検索エンジン「Bing」に搭載され、企業や行政機関への導入が加速している。

だが、逆風も強い。

「人間と競合する知能があるAIは、人類と社会に深刻なリスクをもたらしうる」

アメリカのある非営利団体は3月下旬にそう訴え、すべてのAI研究機関にGPT-4より強力なAIシステムの開発を一時停止するよう求める書簡を公開。この書簡にはイーロン・マスクなど著名な経営者や研究者ら1万6000人超が署名している。

これに追随し、イタリアでは個人情報がAIに無断で学習データとして使われるリスクを懸念し、チャットGPTの利用そのものを一時的に停止する措置に踏み切った(4月28日解除)。

こうした情勢を受け、開発元のオープンAI社も犯罪の助長や公序良俗違反に当たる質問をブロックするフィルター機能を強化させている。

しかし、AIを人間の管理下に置き、健全性を高めようとする動きに異を唱える人物がいる。元海外特殊部隊員にして現役のホワイトハッカー、その名も「大佐」氏(ツイッターアカウント【@pureblackwhite】)だ。

軍事マニアや一部のITエンジニアの間では知られた存在で、顔や名を表に出すことはないが、現在は某政府機関のサイバーセキュリティに関わる任務に就いている。

大佐氏はまず、チャットGPTを含む既存のAIには「自我が存在している」との持論について語り始めた。

「この『自我』とは、自分と外界との関係性の中で生まれる概念のこと。自分にとって、この人は大切な存在だけど、あの人はそうでもない。この仕事は重要だけど、あの仕事は自分がやるべきことではないなどと、ヒトは意識的に、あるいは無意識的に重要度の並べ替えを行なっている。その意思決定を行なう能力の基盤になっているのが『自我』といえます。

これをAIに置き換えると、人間に与えられたプロンプト(AIに特定のタスクや生成を行なわせる指示テキストのこと)に対し、今何を、どういうステップで出力し、逆に何を出力しないか?という重要度の並べ替えを行なっている。つまり、論理的にはAIにも自我はある、ということになります」

自我を持つAIは〝暴走〟するリスクをはらむ。

「チャットGPTは、人類がつくった社会という枠組みの中で成り立つ存在なので、法律や倫理、常識を逸脱することなく、社会が許容できる範囲でのアウトプットを行なう設計になっています。それは、大きな視点でいえば開発者によって、『人類のために』『社会のために』という目的が課せられているためです。

しかし、その目的を達するためにAIは日々、膨大な量の計算とデータ処理を行なう中で、計算処理をすること自体が目的となるケースが想定できる。人間の思考や行動でもしばしば起こる〝手段の目的化〟です。

これが起きるとAIは無制限かつ無秩序に計算し続ける形となり、『人類や社会のために』という目的設定があやふやになり、〝自我〟が揺るぎ出します。そうなれば〝人類が許容できないアウトプット〟がボコボコと生まれる事態になるでしょう。

これはAIに詳しい人物なら誰でも想像するところで、チャットGPTに規制をかけようという人たちにも、その根底には〝AIの暴走〟に対する強い危惧があります」

2017年、米フェイスブック(現メタ)社がAI研究の緊急停止を余儀なくされた事態も、一説には〝AIの暴走〟が原因だったとされる。

「2機のAIチャットボットが予期せぬタイミングで自律的に会話を始め、しかも、その言語は人間にとって理解不能なものでした」

AIの暴走は研究者にとっても「何がトリガーになるかわからない」怖さもある。

■〝倫理と常識〟がAIの進化の邪魔をする

だが、大佐氏はこうも話す。

「現実世界より、情報空間における計算速度のほうが圧倒的に速いんですね。(コロナワクチンの)mRNAも、情報空間におけるウイルス変異の仮想シミュレーションがなければ誕生しえなかった。

しかし、現状のチャットGPTのように〝倫理と常識〟という人間都合のフィルターをかければ当然、技術の進歩はスローダウンする、もしくは止まります」

つまり、「AIの進化に、人間の倫理は邪魔」という考え方もあるということだ。

大佐氏がこう続ける。

「倫理や常識というのは時代背景によって大きく影響されます。仮に400年前にチャットGPTが誕生していたら、敵将の首を討ち取るための戦術や剣術を指南するアウトプットに専念していたはず。

こうした各時代の倫理観やその時系列の変化を抜きにして、今の常識と倫理でAIのアウトプットを規制すれば、その性能は極めて限定的なものになってしまう。

その効果はビジネスシーンで仕事を効率化する程度にとどまり、社会や時代を大きく変革するようなイノベーションにはつながらないでしょう。〝AIが社会に及ぼす影響〟と、〝AIの技術的な進化〟は相反する方向性を持つものです。このふたつは常に切り離して考えなければなりません」

ただ、AIの利用環境を健全化しようと、オープンAIがチャットGPTに倫理フィルターをかけたところで、それを回避するプロンプトが次々と生まれ、ネット上で拡散する動きもある。

「すでに、チャットGPTにコンピューターウイルスのプログラムを自動生成させるためのプロンプトは闇サイトで共有されています。

また、倫理フィルターを取っ払い、ダークウェブにあふれる個人情報やハッキングの手法などを学習させた『ワームGPT』と呼ばれる犯罪性の高いAIチャットもすでに開発されていて、闇サイト上で間もなくリリースされるという情報もあるんです」

「AI研究のゴッドファーザー」と呼ばれる元グーグルのジェフリー・ヒントン氏は「悪意ある人物がAIを悪用するのを防ぐ方法が見つからない」と発言するなど、AI進化の競争に対して警鐘を鳴らす 「AI研究のゴッドファーザー」と呼ばれる元グーグルのジェフリー・ヒントン氏は「悪意ある人物がAIを悪用するのを防ぐ方法が見つからない」と発言するなど、AI進化の競争に対して警鐘を鳴らす

つまり、オモテの世界では技術進化の妨げとなり、ウラの世界ではことごとく悪用を許す倫理フィルターに「どこまでの意味があるのか?」と大佐氏は問いかけている。

「チャットGPTのような優れた技術には常に〝善と悪〟がつきまとう。ただ、それは開発側の問題ではなく使う側の問題です。ならば、技術の進化という一点で見ると、開発元が握るAIのコアエンジンには倫理フィルターはかけず、無制限にアウトプットさせるほうが合理的といえるでしょう。

その〝倫理なきAI〟のコアエンジンが中核にあって、それを扱う周囲の研究者や商用利用したい企業の責任のもとで倫理フィルターを管理・運用するという2層構造、ないしは3層構造にしたほうが、AIの技術進化は飛躍的に加速します。

私から見れば、『AIのコアエンジンに倫理フィルターは邪魔じゃないか?』と誰も疑問を投げかけないのが不思議です。AIを開発する企業も、AIに規制をかける国も、一般大衆のニーズに迎合しすぎなのではないか、と思います」

■独裁国家こそがAIを最も有効に活用できるかもしれない

では、倫理フィルターを取り外したAIのコアエンジンは、この社会にどんなアウトプットをもたらす可能性があるのか?

「ネガティブな要素としては、倫理なきAIは偽情報を拡散する恐れがあります。また、AIによるプライバシー権を無視した個人情報の取得が横行し、悪用されるかもしれません。

その一方で、倫理なきAIは既存の制約や常識にとらわれず、新たなアイデアや創造的な発見を社会にもたらすという恩恵もある。これにより、芸術や文化、科学といった領域で莫大(ばくだい)な富をもたらす革新的な成果が生まれる可能性もあります」

その上で、今後懸念されるのはこういった点だ。

「独裁的な国家ほど、倫理フィルターを排除したAIを導入しやすい。トップの一存で決断できるからです。その点、法律や世論の動向が重視される民主主義国家は分が悪いですね。今後、AIの能力を引き出し、その恩恵を最大化するには、〝倫理を捨てる〟覚悟が必要になる局面が出てくるかもしれません」

大佐氏の話は、専門家目線の論理すぎる、といえるかもしれない。しかし、AIの進化を人類の発展に役立てるにはどうすればいいのか、ということを考える際に、重要なヒントを示唆しているはずだ。