AIチャットボット「ChatGPT」は社会をどう変えるのか? 日々さまざまなニュースや特集記事を配信する「ウェブメディア」の視点で見たとき、そこには思いもよらぬリスクが潜んでいた。
* * *
■記事の大部分は「AIまかせ」
ソフトウェア開発会社のtempiは今年1月、ChatGPTなどのAIツールに特化したウェブメディア『ChatGPT研究所』を立ち上げた。
社員数3名と少数ながら、3ヵ月間で公開した記事は約70本。『GPT-4で今日からできる仕事効率化活用術7選!』などの見出しが並び、どれも読みごたえのある内容だ。
これらの記事はすべてChatGPTの最新バージョン「GPT-4」と、その技術をベースにマイクロソフトが開発した検索エンジン「Bing AI」を活用して作成された。
見出しの作成や原稿の骨組みなどをAIに任せて、ファクトチェックや微調整を人力で行なう。記事制作の担当者はライター経験のない19歳の男性役員で、「GPT-4は無茶ぶりが利く部下」だと話す。
「人間相手だと、『見出し案を追加で10本』なんて頼めないですが、AIならパパっと数秒で答えてくれる。しかも『SEOに強いタイトルで』とか、『記事のテイストはニューヨークタイムズ風に』といった高難度の指示にも期待通りの回答を示してくれます」
テクノロジー系のウェブメディアの編集者T氏(40代)は、「8割はChatGPT に書かせて、残り2割は自分で手直しをする」やり方で、オリジナル記事を量産。作業効率は「何倍にも上がった」。しかし、記事作成のためにChatGPT を使っていることは「社内の誰にも言っていない」という。
「原稿の大半をAIに書かせることには反発の声がまだまだ大きい。原稿を書くというライターや編集にとっての仕事のキモの部分を、AIに明け渡していいのか? という葛藤やプライドが壁になっているように感じます。それは、収入や雇用に関わってくる問題でもある」
■「検索」と「ウェブサイト」の関係が激変する
『AIが人間を殺す日 車、医療、兵器に組み込まれる人工知能』(集英社新書)の著者でITジャーナリストの小林雅一氏はこう話す。
「ChatGPTは2021年9月時点までの学習データを基にしているため、リアルタイムの検索には使えないという欠点がありましたが『Bing AI』によって、ある程度克服された。そして、この検索エンジンによってまず影響を受けるのは既存のウェブメディアとeコマースです」
従来は知りたい情報があれば、グーグルなどで検索し、検索結果から各社のウェブメディアやeコマースのサイトにアクセスするのが一般的だったが、「Bing AI」などAIチャットと一体化した検索エンジンによってこの流れが激変する可能性があるという。
「恐らく今から半年~1年後くらいには、マイクロソフトやグーグルがAI機能を備えた検索エンジンを出してきます。これらがスタンダードになれば、知りたい情報の検索と閲覧がAIチャットボットのなかで完結する。
つまり、既存のウェブメディアやeコマースサイトからすれば、これまで検索エンジンから流入してきていたトラフィックが激減してしまうので、アクセス数を大きく落とす恐れがあります」(小林氏)
こうしたAIの脅威に、アメリカの大手メディアはすでに対策を打ち始めている。
「今年2月、経済紙『ウォール・ストリート・ジャーナル』を発行するダウ・ジョーンズ社は、自社の記事をオープンAI社が正当な対価を支払うことなく無断でChatGPTの学習データとして利用していると抗議しました。ほかの主要メディアからも同様の声が挙がっていますが今の流れを止めることはできません。
メディアやeコマース業界では残り半年から一年程度の猶予期間で何らかの対策を講ずる必要があるでしょう」(小林氏)
●バカなAIがバカな記事を再生産するリスク
人工知能を用いたサービスの開発や運営、コンサルティング事業を展開する「ゼルペム」で、AI/ストラテジースペシャリストを務める清水亮氏はこう話す。
「ChatGPTがブームになって以降、私のもとにはウェブメディアの運営に携わる企業の経営陣や編集長クラスの人たちから、『ChatGPTに対抗するにはどうすればいいのか?』と相談を受ける機会が増えました」
その背景にあるのは、著作権法だ。
「日本の著作権法は他の先進国に比べても厳格な内容になっていますが、AIの学習データとして(ニュース記事などの)著作物を利用する場合においては『特例が認められる』と明文化されており、完全に合法の扱いとなります。
諸外国の著作権法は、AIに許可なく著作物を学習させることへの法的な扱いが曖昧な状態で、これが訴訟に発展する素地になっているのですが、日本の場合は特例があるために訴訟自体が成立しにくい状況にあると言えます」(清水氏)
日本はAI開発が進めやすい環境にあるが、そのことは学習データとしてニュース記事を無断で使われるウェブメディアにとってはデメリットになる。
「これに危機感を持つウェブメディアは、自社コンテンツがChatGPTに学習データとして勝手に使用されないよう一部の無料公開の記事を有料にするといった防衛手段を取るようになりました。今後、ChatGPTの普及に伴い有料記事はもっと増えていくでしょう」(清水氏)
そのことによって、こんな弊害が生まれる可能性がある。
「AIチャットボットは、基本的に無料で閲覧できるネット情報を学習データとして使うため、新聞社などのウェブメディアで有料記事が増え、確度の高い記事を読み込めなくなれば学習データは劣化します。
ファクトチェックがされていない記事や、広告収入のために量産されたスパム記事など低品質な情報を学習するウエイトが高まり、AIは"バカ"になっていく。
そしてAIは自身で生成した記事を学習して、また別の記事を再生産します。その結果、オープンなネット空間は、AIが作成した低品質の記事が溢れかえるようになる。そのことが社会にもたらす悪影響は小さくないと思います」(清水氏)