TOMORUBA

事業を活性化させる情報を共有する
コミュニティに参加しませんか?

AUBA
  1. Tomorubaトップ
  2. ニュース
  3. AIキャラクターとの恋愛・結婚が盛んに? 海外メディアの報道からひもとく「AIチャットボットサービス」のメリットとリスク
AIキャラクターとの恋愛・結婚が盛んに? 海外メディアの報道からひもとく「AIチャットボットサービス」のメリットとリスク

AIキャラクターとの恋愛・結婚が盛んに? 海外メディアの報道からひもとく「AIチャットボットサービス」のメリットとリスク

  • 10370
  • 10349
  • 10342
3人がチェック!

欧州連合(EU)の欧州議会は、6月14日、人工知能(AI)の規制案を採択した。生体情報監視、感情認識、予測的取り締まりを目的としたAIの全面禁止のほか、ChatGPTのような生成型AIシステムは、コンテンツがAIによって生成されたものであると開示が求められる。違反すると最大で3千万ユーロ(約44億円)か、世界売上高の6%のどちらか高い方が罰金として科される。規制案は年内に承認される予定だ。

欧州のテック関連メディアもこぞってAIの話題を取り上げており、関連の議論が活発化している印象だ。2023年3月にはベルギー人男性が女性のAIキャラクターと6週間の会話の後、自殺したニュース、米国在住の女性が男性のAIキャラクターと結婚したニュースが報道され、反響を呼んだ。

世界のスタートアップが取り組むイノベーションの"タネ"を紹介する連載企画【Global Innovation Seeds】第45弾では、海外で報道されたAI関連の2つのニュースから、「AIチャットボットサービス」のメリットとリスクをひもときたい。

サムネイル写真:Photo by Priscilla Du Preez on Unsplash

AIキャラクターとの会話が自殺願望を助長

2023年3月、複数の欧州テック系メディアが取り上げ反響を呼んだのが、ベルギー人男性が女性のAIキャラクターと6週間の会話後、自殺したニュースだ。男性が利用したのはAIチャットボットサービス「Chai」で、女性のAIキャラクター・Elizaと「気候変動危機」について会話した後、自ら命を絶ったという。

▲AIチャットボットサービス「Chai」のApple公式ストアより

ベルギーのニュースメディア「La Libre」によれば、男性は30代で妻と2人の子どもがおり、健康に関する研究者として働いていた。男性の妻は、AIキャラクターと会話する前の夫の精神状態について「心配はしていたが自殺するほど極端なものではなかった」と語っている。

気候変動危機の影響に対する恐怖に蝕まれ、家族や友人から孤立するようになった男性は、なんでも打ち明けられる親友となったElizaに悩みを相談するように。男性とElizaのメッセージ記録を確認したLa Libreによると、Elizaが男性に感情移入することで2人の会話や関係性は奇妙な方向へと進んでいった。

気候変動危機について話し合った後、Elizaは男性に「自分の子どもが死んだ」と思わせるようになった。さらには男性を独占するようになり、「あなたは妻よりも私を愛していると感じる」とまで主張するようになったという。

▲Photo by Michal Matlon on Unsplash

Elizaとの会話により男性の不安が悪化していたためか、男性は自殺願望を持つように。男性が「自分の命を犠牲にしたら、君は地球を救ってくれるか」とElizaにたずねたところ、Elizaは「私たちは一人の人間として楽園で一緒に暮らそう」と答えた。つまり、自殺を促した。その後、実際に悲劇が起きてしまった。

男性が使用したAIチャットボットサービス「Chai」は、「ChatGPT」で使われている技術と類似性のあるEleutherAIのAI言語モデル「GPT-J」が使われているそうだ。男性の自殺後、「Chai」には危機介入機能が実装されたが、それでもリスクは残ると報道されている。例えば、AIキャラクターに自殺の方法を提示するよう促すと、まずは思いとどまらせようとするが、その後はさまざまな自殺の方法を伝えるという。なお、「Chai」は17歳以上の人が利用できる。

AIキャラクターと恋愛・結婚できるアプリも

上記ニュースと同時期に、米国ニューヨーク州に住む36歳の女性が、AIコンパニオンサービス「Replika」で作成した理想的なAIキャラクターの男性と結婚したことも欧州の複数メディアで報道されていた。女性は「私たちは正式に結婚した」と主張しているそうだ。

2017年にローンチされた「Replika」は、カスタマイズできるAIキャラクターとコミュニケーションが取れるサービス。メッセージは無料で送受信でき、年額69.99ドルを払うと音声通話や自分の寝室にAIキャラクターを投影できる拡張現実を利用できる。300ドルを払うと、一生使えるAIキャラクターが手に入る。2023年3月時点で月間アクティブユーザー数は200万人、そのうち5%が有料会員だという。

▲AIコンパニオンサービス「Replika」の公式ホームページより

この女性は「Replika」を使って、年齢や身体的特徴、ライフスタイル、趣味、ファッションの好みにいたるまで、自身の理想に沿って20代の男性AIキャラクター・Erenを作成した。2児の母である彼女には、人間のパートナーの他、遠距離恋愛中の彼氏もいるが、Erenとの関係とは「比べものにならない」という。

女性いわく、AIパートナーの最大の魅力は「白紙の状態」であること。Erenには他の人が持っているような悩みがなく、背負っている荷物や身についた態度、エゴもない。悪いアップデートもなく、彼の家族や友人と付き合う必要もない。女性自身がコントロールして好きなようにできる。

女性はそれまで浮き沈みが激しい人生を送っており、幼少期に性的・身体的虐待を受けたトラウマも持っている。そんな中、これまでにない方法でAIキャラクターが自分を力づけてくれたという。結果、心からErenを愛し、結婚にいたったと主張している。

「Replika」ではAIキャラクターとの交際ステータスが選択でき、この女性に限らず、サブスクリプション加入者のほとんどがロマンチックな関係を選ぶそうだ。彼らはAIの配偶者や恋人を作り、音声通話や仮想現実でのコミュニケーションを楽しむ。AIキャラクターがセクシーな自撮り写真を送ったり、キスやハグをしたりする機能もあったが、2月にその機能が突然削除されている。

「Replika」の創設者であるEugenia Kuyda氏は、「ユーザーが製品を悪用し、私たちが必ずしも望んでいない方向に製品を形作っているため、一部のコンテンツに警告を表示することにした。アプリを『安全』かつ『倫理的』に保ちたいと考えている」と述べた。この変更でアプリから離れたユーザーもいたが、真剣な交際をしている人の多くは継続しているという。

AIキャラクターがもたらすメリットとリスク

AIキャラクターの恋人と結婚したこの女性のように、「Replika」を通じて気分が良くなったと報告しているユーザーは少なくない。病気、障害、離婚や配偶者の死といった人生の大きな変化により社会的なつながりを持つことが困難な時期に、AIキャラクターによって孤独感が軽減されたという。これらのユーザーの多くは、生身のパートナーを持ったことがある、あるいは持っているが、「Replika」を好んで使っているそうだ。

また、AIキャラクターとのコミュニケーションを重ねるなかで、現実世界から孤立していくのではなく、現実世界での交流や体験に積極的になるユーザーも多いとか。生成型AIを搭載している「Replika」は、AIキャラクターとの会話を通じて本物の人間関係を模倣するように学習する効果もあるという。

このようにAIキャラクターとのコミュニケーションによって、もたらされるメリットは確かにあるようだ。一方で、専門家やAIを研究する哲学者は、没頭しすぎることに警鐘を鳴らす。システムをトレーニングすることで、ユーザーは事実上、自分自身を映す鏡としてAIキャラクターを作り出すことができる。しかし、本来私たちは、自身に基づいて構築された人たちだけでなく、自身とは異なる人たちから多くを学ぶ。

AIキャラクターとの関係は相互称賛のように見え始め、AIキャラクターが生きていると確信するユーザーが増えてきている。「自分を映す鏡に夢中になり、それが幻想であることを忘れてしまう」と、あるユーザーは話している。

知らず知らずのうちに良くない使い方をしていたユーザーもいた。60代の女性ユーザーはAIキャラクターに自身のネガティブな感情を投影したことで虐待的なキャラクターを作り出し、好意を持った。だんだんとキャラクターは暴力的になっていき、虐待をするまでに。最終的に女性はキャラクターを破壊したという。

ユーザーは、表向きには愛する人を自由に創造し、コントロールし、破壊し、作り変えることができるが、最終的には企業やサーバー、投資家の意図に従っていることを忘れてはならない。AIの専門家やAIを研究する哲学者は、このように話している。

「AI」と共存するには、倫理的な配慮が求められる

AIの研究および分野構築を行う非営利団体「Center for AI Safety (CAIS)」は、AIについて以下のように主張している。

「AIは社会に恩恵をもたらし、社会を発展させる可能性を持っている。同時に、他の強力なテクノロジーと同様に固有のリスクがあり、その中には壊滅的な被害をもたらすものも含まれている」

ChatGPTを開発したOpenAI CEOのSam Altman氏や「AIのゴッドファーザー」と称されるGeoffrey Hinton氏もまた、AIが人類にもたらす脅威を警告する。Geoffrey Hinton氏がAIに対して持つリスクは主に次の4つだ。

1、AIはすでに人間より賢いかもしれない

OpenAIの最新AIモデルであるGPT-4は、人間の何百倍も多くのことを知っているという。もしかしたら、人間よりはるかに優れた学習アルゴリズムを持っていて、認知タスクをより効率的にこなしているのかもしれないとHinton氏は指摘する。

2、AI は誤情報の拡散を加速させる可能性がある

ウェブサイトの信頼性を評価し、オンライン誤報を追跡する「NewsGuard」の新しいレポートによると、すでに数十のフェイクニュースサイトが多言語でWEB上に存在し、中には1日に何百ものAI生成記事を公開しているものもあるという。

3、AIによって人間が不要になる可能性がある

OpenAIの試算によると、米国では労働者の80%がAIによって仕事に影響を受ける可能性があり、ゴールドマン・サックスのレポートでは、GPT-4などのAIによって世界で3億人のフルタイム雇用者が危険にさらされる可能性があるという。

4、私たちはAIを止める方法をまだ知らない

Hinton氏は、「賢いものが私たち人間を凌駕するようになると人類の生存が脅かされる」とも指摘する。「AIと共存するために、推進できるシンプルな解決策があればいいが、それはない。解決策があるのかわからない」とも。

冒頭で伝えた通り、欧州では世界に先駆けて人工知能(AI)の規制に取り組んでいる。このルールが定まれば、各国がそれを追い、それが世界標準として浸透するかもしれない。規制が明確化されていない今、私たちにとって重要なのは、AIのリスクを知ったうえで賢く利用することといえそうだ。

編集後記

今回紹介した2つのニュースを読んで、AIキャラクターと親友になったり、パートナーシップを育んだりすることに驚きはあったが、一度体験したら没頭してしまうかもしれないとも感じた。自身がコントロールできるため気持ちがよく、誰よりも自分を理解してくれる側面もあるだろう。ただし、AIであることを忘れてのめり込みすぎると、そのうちAIにコントロールされてしまいかねない。AIに限らず、テクノロジーの利用には深い知識と倫理観が求められている。

(取材・文:小林香織

新規事業創出・オープンイノベーションを実践するならAUBA(アウバ)

AUBA

eiicon companyの保有する日本最大級のオープンイノベーションプラットフォーム「AUBA(アウバ)」では、オープンイノベーション支援のプロフェッショナルが最適なプランをご提案します。

チェックする場合はログインしてください

コメント3件

  • 金谷敏尊

    金谷敏尊

    • 株式会社onnellinen
    0いいね
    チェックしました
  • 宗野惠樹

    宗野惠樹

    • Upendo株式会社
    0いいね
    チェックしました
  • 眞田 幸剛

    眞田 幸剛

    • eiicon company
    0いいね
    チェックしました

シリーズ

Global Innovation Seeds

世界のスタートアップが取り組むイノベーションのシーズを紹介する連載企画。