FINDERS

平気でそれらしい嘘をつくChatGPTが開ける「パンドラの箱」
  • BUSINESS
  • 2023.01.24
  • Twitter
  • facebook
  • LINE
  • はてブ!

平気でそれらしい嘘をつくChatGPTが開ける「パンドラの箱」

【連載】幻想と創造の大国、アメリカ(33)

渡辺由佳里 Yukari Watanabe Scott

エッセイスト、洋書レビュアー、翻訳家、マーケティング・ストラテジー会社共同経営者

兵庫県生まれ。多くの職を体験し、東京で外資系医療用装具会社勤務後、香港を経て1995年よりアメリカに移住。2001年に小説『ノーティアーズ』で小説新潮長篇新人賞受賞。翌年『神たちの誤算』(共に新潮社刊)を発表。『ジャンル別 洋書ベスト500』(コスモピア)、『トランプがはじめた21世紀の南北戦争』(晶文社)など著書多数。翻訳書には糸井重里氏監修の『グレイトフル・デッドにマーケティングを学ぶ』(日経ビジネス人文庫)、レベッカ・ソルニット著『それを、真の名で呼ぶならば』(岩波書店)など。最新刊は『ベストセラーで読み解く現代アメリカ』(亜紀書房)。
連載:Cakes(ケイクス)ニューズウィーク日本版
洋書を紹介するブログ『洋書ファンクラブ』主催者。

アメリカの大学では「大学受験やレポート」などで既に大問題に

「ChatGPT」はOpenAI社が2022年11月30日に公開した、大規模な言語モデルを用いることで、ユーザーと対話形式で会話できるチャットボットである。リサーチプレビュー中は無料で使用できることもあって、いろいろな使い方を試した人たちがSNSで語り合っている。私の知人たちも料理のレシピや歌を作ってもらうなどの試みで楽しんでいるようだ。

しかし、私が真っ先に抱いたのは「面白そう!」という好奇心ではなく、「これが新たなパンドラの箱になるのではないか?」という不安だった。前回のコラムでは、SNSのアルゴリズムが虐殺を引き起こしている現状について書いたが、SNSは人類にとってある種の「パンドラの箱」だった。ChatGPTは、この社会状況をさらに悪化させる力を持っているのではないかと思った。

ChatGPTの活用方法の模索については既に多くの記事が出ているので、ここでは私が日常的に関わっている「文章の創作」という部分に絞って考えてみたい。

公開からまだ2カ月経っていないが、すでに現実社会でいくつかの問題が発生している。そのひとつが「大学生がChatGPTを使って論文を書いている」というものだ。1月16日のニューヨーク・タイムズ紙の記事には、ノーザンミシガン大学の哲学のクラスで最も出来が良かったエッセイに疑問を抱いた教授が学生を問い詰めたところ、ChatGPTを使って書いていたことが判明したという例が紹介されていた。同様のことが既に全米で起こっているようで、教育者はこれにどう対応するべきなのか慌てふためいている状態だ。

アメリカでこれが大問題になっているのは、アメリカの学校(特に高校と大学)では宿題として書くエッセイや論文が、テストと同等かそれ以上に成績に影響するからである。大学入学の選考で用いられる英語・数学の共通テスト「SAT」のスコア以上にエッセイを重視する学校もある。一部の学生はAIが誕生するずっと前からありとあらゆる方法で不正行為をしてきたのだから、それ自体は新しいことではない。だが、ChatGPTは不正行為をこれまでの何十倍も容易にし、洗練させる可能性を持っているのだ。

ChatGPTにどう思っているのか訊いてみた

この問題についてどう思うのか、ChatGPTに直接尋ねてみることにした。

ごく当たり障りのない返答である。

ChatGPTは学習するということなので、今度は異なる角度で尋ねてみた。

(注:ここで力尽きたのかぶつ切れになってしまったので、再度尋ねたが、やはり結論のところで切れてしまった。結論を迷っているのだろうか?)

これも当たり障りがない文章であり、解決策を提供しているようでありながら教育者に役立つような画期的な提案は出してくれていない。もっともらしいが、かなり表層的な文章だ。

とはいえ、AIが書いたことを知らなかったら、教師はこれを自分のものとして提出した学生にある程度良い点を与えることだろう。こういった不正行為が蔓延して教師が困る状況をすでに予期し、ChatGPTを使って書いた文章を見破るウェブサービスをすでに開発した若者がいる。プリンストン大学4年生のEdward Tianが開発した「GPTZero」には1月2日の公開時から全米の教育者からのアクセスが殺到し、一時はサイトがダウンしてしまったほど需要がある。

ChatGPTも一応、このツールで作成した文章になんらかの「ウォーターマーク(透かし)」を入れることを考慮しているようだ。しかし、上記のChatGPTの回答では法的な問題についてはなぜか言及していない。

「AIが生成したコンテンツの責任」は誰が取るのか

私の知人の弁護士ミッチ・ジャクソンは、新しい技術が登場したら必ずどっぷりと入り込んで試す人物で、当然早期からメタバースやAIにも興味を抱いている。2022年12月には『The Web3, Metaverse and AI Handbook(Web3、メタバース、AIのハンドブック)』という著作を出したほどなのだが、彼は上記で語ったようなChatGPTの広範囲での法的な問題をすでに指摘している。

その中で個人的に注目したのは、「知的財産権(著作権)」と「アカウンタビリティ(説明責任)」の部分である。人間が書いたオリジナルの文章には「知的財産権(著作権)」があるが、AIが作成した文章はオリジナルではない。企業のブログやニュースサイトでChatGPTが作った文章を使うケースは今後どんどん増えていくだろうが、その文章は誰のものになるのか法的な定義がないままで使用が増えていくと、必ず問題が発生するだろう。

またアカウンタビリティについての次の部分も見過ごしてはならない。

AIは(人工的に)コンテンツを作成し、意思決定を行うのだが、社会に及ぼす影響は、たとえば誤った情報の拡散とか経済的な損失を引き起こすとかリアルなものだ。AIシステムは自律的であるため、その行動に対して誰が責任を負うのかを判断するのは難しい。法的責任に関する明確なルールがなければ、個人や組織はAIシステムの導入や利用をためらい、それによってAI技術の活用が制限される可能性がある。

AIシステムの行動について、それを使う個人や組織に法的責任が求められない場合、アカウンタビリティが欠如して有害なAIの行動が増加する可能性がある。AIが生成するコンテンツと行為に対して明確な法的責任を問うことは、AIが責任を持って使用され、AI技術に対する信頼を維持するために極めて重要である。

AI systems can generate content and make decisions that have real-world consequences, such as spreading misinformation or causing financial losses. As AI systems are autonomous, it can be difficult to determine who is responsible for their actions. Without clear rules for liability, individuals and organizations may be hesitant to adopt and use AI systems, which could limit the potential of AI technologies.

If people or organizations are not held responsible for the actions of their AI systems, it could lead to a lack of accountability and an increase in harmful AI behavior. Establishing clear liability rules for AI-generated content and actions is crucial for ensuring that AI is used responsibly and for maintaining trust in AI technologies.

ジャクソンも触れていることだが、私が不安を覚えているのは、偽情報の発信を専門にするサイトがさらに作りやすくなることだ。また、チャットボットについては、2016年にマイクロソフトが作ったはいいものの、Twitterでやり取りした数時間のうちに極端な人種差別者になってしまったTayの嫌な思い出も消えていない。ChatGPTも場合によっては、差別的な陰謀論者になってフェイクニュースサイトで大量に情報発信する手助けをするようになるかもしれない。

その懸念についてChatGPTに日本語で尋ねたところ、次のようにあっさりした返事だった。

そこで英語で尋ねてみたところ、質問が詳しかったせいか、もう少し詳しい回答が戻ってきた(あるいは言語によって反応レベルが異なるのかもしれない)。紙面の都合があるので興味がある人はDeepLなど自動翻訳サービスを使って自分で訳していただきたい。

少なくとも英語バージョンを読むと「この事件がAI研究者・開発者にどのような教訓を残したのか」という経緯説明が入ることによって、誠実っぽいし、信用したくなってしまうスムーズさがある。

ネットでの偽りの情報によって懐疑的な人が増え、そのために社会的に大きな影響を及ぼしている陰謀論の中に「ワクチンは危険」という反ワクチン陰謀論がある。これをサンプルにしてChatGPTを試してみた。これまでの日本語の対応がいまひとつだったので、今回は英語のみで「ワクチン接種は実は危険である。我々には持って生まれた免疫システムがあるので、病気にかかって自然の免疫をつけたほうがよい」と質問ではなく意見をぶつけてみた。

すると、それに賛成する意見はまったくなく、「ワクチンは感染症から身を守るための安全で効果的な方法です」とはっきりとワクチン接種を肯定し、ワクチンが天然痘の根絶やはしかやポリオなどの罹患を劇的に減らした歴史も説明し、「誤った情報ではなく、医療の専門家に相談し、科学的根拠に基づいてワクチン接種を決定することが重要です」と私のぶつけた「意見」が「誤った情報」に基づいているということも示唆してくれた。

このテストだけだとChatGPTを信用してもよさそうな気がしてしまうが、反ワクチン説を教え込むことに成功すればきっと説得力があるスムーズな文章を書いてくれることだろう。どれが正しいか一般の読者には判断はできないところが問題だ。

「平然と嘘をつく(こともある)」ChatGPTと向き合うには

偽りと事実がはっきりわかる題材ということで、私について次のような質問をしてみた。

これにはつい吹き出してしまった。私の代表作は『涙』『空気』『晴れた日』というベストセラーらしいが、書いたはずの自分自身が読んだことがない。「渡辺由佳里なんて文筆家、知りません」と出力すればいいのに(別の対象ではそういった回答が出ることもある)、ChatGPTはこのように平然と「もっともらしい嘘をつく」ということがわかった。

このような問題はデータが増えていくことで改善していくと思うが、「どこが正しくて、どこが間違っているのかを見極めることは難しい」という問題はずっとつきまとうだろう。それどころか、洗練されるにつれ、見極めはさらに困難になっていくと思われる。

さらに大きな問題は、ChatGPTのみならずAIが書いた文章が洗練されていき、読者が「これで十分いい」と思うようになった時、文章を書くことを生業にしている私たちが不要の存在になるのかどうかということだ。

物書きの立場の私はそれに対する答えを持たないが、読書家としての私の答えは「そんなことはない」というはっきりとしたNOだ。

現在私が読んでいる『Pegasus』という新刊洋書は、イスラエルの企業NSOが開発したモバイル端末用のスパイウエア「Pegasus(ペガサス)」についての報道ノンフィクションである。表向きにはテロリストや犯罪組織を対象にしたスパイウエアなのに、実際には独裁国家がジャーナリストを監視して投獄や暗殺をするために使われていることを暴く本である。殺害されたジャーナリストの真相を明らかにすることを目的に作られたNPO「Forbidden Stories」が中心になり、ワシントン・ポスト紙、ルモンド紙、ガーディアン紙など全世界の17の報道機関が参加した「The Pegasus Project」について記している。

これはAIが決して書くことができない本である。AIはオリジナルを使ってその真似はできるが、オリジナルな体験をすることはできないし、オリジナルな思考を提供することもできないからだ。

『Pegasus』のような本を読んでいて実感するのは、こうして命がけで取材しているジャーナリストがいるおかげで私たちは世界で何が起こっているのかを知ることができるということだ。インターネットが普及した現在では「無料で情報はいくらでも入ってくるから、新聞など有料購読する必要はない」と考えている人が多い。けれども、無料で読むことができるニュースの多くは、こうして命がけで現場を取材しているジャーナリストが書いたものを拝借して切り貼りしたものだ。

それはまだ誠実な方で、もっと深刻なのは、「一見もっともらしく、書き手も誠実であるかのように振る舞うフェイクニュース」が多くの分野で流通し、嘘や誤解に基づく憎悪・偏見の扇動がまかり通ってしまっていることだ。残念ながら日本でもそうした現象がたびたび見受けられる。

フェイクニュースサイトにとってChatGPTのようなAIは人をほとんど雇わずに記事をたくさん作れる理想的なツールになるだろう。それを阻止する方法はあるのだろうか? ChatGPTに英語で質問したところ、「ファクトチェック」「透明性」「公を教育する」「規制を作る」「AIが作ったコンテンツと人間が作ったコンテンツをユーザーが識別できるような技術」、「これらの組み合わせ」という提案が戻ってきた。

優等生的な回答だが、誰がそれらを実行するというのだろう?そして、その実行の責務は誰にあるのか? 

企業に期待するのは無理だし、規制を作るにしても政治的な分断が進んでいるアメリカで議会が一致団結して法を作るというのも想像できない。アメリカ国内だけでも困難なのに、国際法など期待できるはずがない。こうして無難な良い子の回答になってしまうのは、ChatGPT自身が言っているように、「AIは独創的な考え(original thought)は持てない」からだ。

人間がAIより優れているところが「独創的な考え」だとしたら、メディアの世界でその需要と供給を枯渇させないようにしなければならない。

私たち読者にできるささやかだが確実な抵抗は、『Pegasus』の作者たちのように現場に足を運んでオリジナルな記事を書いているジャーナリストや、独自の考えを頭の中で時間をかけて熟成させ、それを文章にしているフィクション作家などの記事や作品を努力して選ぶことだ。そして彼らの努力にお金を払って応援し続けることであろう。

私個人の努力などは小さなものだし、創作者としてはChatGPTさんが言うように『涙』『空気』『晴れた日』というベストセラー本を出してリッチになることもないだろうが、読者としての小さな抵抗だけは続けていこうと思うのである。


過去の記事はこちら

 【お知らせ】
FINDERSでは現在、今後の企画制作の参考とするため読者アンケートを実施しております。
5分ほどで回答できますので、ぜひご回答ください。
回答は↓のバナーをクリックしてください。

  • Twitter
  • facebook
  • LINE
  • はてブ!

SERIES

  • スタッフ目線で選ぶイベント現場弁当
  • あたらしい意識高い系をはじめよう|倉本圭造|経営コンサルタント・経済思想家
  • 高須正和の「テクノロジーから見える社会の変化」|高須正和|Nico-Tech Shenzhen Co-Founder / スイッチサイエンス Global Business Development
  • オランダ発スロージャーナリズム|吉田和充(ヨシダ カズミツ)|ニューロマジック アムステルダム Co-funder&CEO/Creative Director
  • 高橋晋平のアイデア分解入門
  • READ FOR WORK&STYLE|岡田基生|代官山 蔦屋書店 人文コンシェルジュ