デタラメな情報も、もっともらしく回答する「チャットGPT」。進化し続けるAIが社会にもたらす革新と恐ろしいリスク

暮らし

公開日:2023/6/20

チャットGPTvs.人類
チャットGPTvs.人類』(平和博/文藝春秋)

 世界を席巻しつつある、アメリカのオープンAI社による人工知能を駆使したチャットサービス「チャットGPT」。人間の代わりに“何ができるか”と期待する声もある一方、どのように向き合うべきかと疑問を投げかける声もある。

 書籍『チャットGPTvs.人類』(平和博/文春新書)は、未知なる可能性を秘めた「チャットGPT」の現在に迫るタイムリーな1冊だ。私たちは、いかにしてAIと共存していくべきか。その問いかけへの道筋を示す。

身近な人間のように「自然な応答」で回答を吐き出す

 まず、チャットGPTの歴史をおさらいしたい。本書によると、原型は2018年6月にオープンAI社が発表した「初代GPT」で、以降「GPT-2」「GPT-3」と改良され、2023年6月現在のバージョンは「GPT-4」となっている。

 呼び名の由来は「生成事前学習トランスフォーマー(Generative Pre-trained Transformer)」で、各単語の頭文字を取っている。人間がつくった入出力データの「正解」をもとに学習させる「教師あり学習」と、自身で「規則性」などを学習する「教師なし学習」のふたつのアイデアを組み合わせたAIとして開発された。

 特徴は、驚くほどの情報量と人間のような自然な応答を見せ、本書では「家族や友人との間で日常的に使われているチャットのスタイルで、直感的に思いついた言葉を入力するだけ」で使用可能と表現している。実際に使用するとその意味がよく分かるが、例えば、人間だと手間や時間のかかる文章の要約や整理など、煩雑な作業をさせることも可能だ。

advertisement

「チャットGPT」が見る「幻覚」という副作用

 昨今、特にビジネスシーンにおいて「チャットGPT」をいかに活用するべきかの議論が活発になっている。人間の作業を肩代わりしてくれるなど、たしかにメリットは大きい。しかし、それだけに目を向けてよいのか。現状ではいくつかの懸念点もある。

 そのひとつが、「チャットGPT」が「幻覚」を見るという指摘だ。本書では、2023年3月にオープンAI社が公開した説明文書「テクニカルレポート」の内容を、以下のように翻訳して紹介している。

GPT-4は「幻覚」の傾向がある。すなわち「特定の対象について、無意味な、あるいは事実ではないコンテンツを制作する」ということだ。

 すなわち、AIが「もっともらしいデタラメ」を出力する場合もあることを意味しており、オープンAI社はさらに、「チャットGPT」が社会へ浸透するにつれて「情報空間全体を汚染し、その質と信頼を低下させる可能性がある」と指摘している。

 AIが“正しい”と判断する情報源には、Webの情報がある。「劣化コピー」の情報が連鎖すれば、Web上にある情報自体が劣化するのは想像にたやすい。

 本書によると、政治、健康、エンターテインメント、金融、テクノロジーなど幅広いジャンルにわたり、チャットGPTなどの生成AIを使って、記事の全部もしくは一部を作成したニュースサイトの存在も複数確認されており、情報を受け取る人間が、その正確さを判断する力がよりいっそう求められている。

 著者の平和博氏は、本書の冒頭で「人間の膨大な知識を飲み込んだ『人間』のようなAIを使って、人間は何をしようとしているのか?」と問いかけている。日々進化し続けている「チャットGPT」。どんなに自然に見える応対や回答であったとしても、「幻覚」の存在とそれが社会にもたらす恐怖を決して忘れてはならない。私たちはこの驚異的なテクノロジーをいかに人間の制御下で活用していくべきなのか。議論の余地はまだまだ多い。

文=カネコシュウヘイ

あわせて読みたい