共感は複雑で多面的な感情であり、認知要素と感情要素の両方が重要です。他人の視点や精神状態を理解する能力、さらには他人が何を感じているかを感じる能力 (感情的共感として知られます)も必要です。これは、他人の感情を「反映」することを可能にする、脳のプロセスにおける人間の本質的な特性です。さて、人工知能はこのまさに人間の能力を偽ることができるでしょうか?

本物のつながり
Siri や Alexa などの仮想アシスタントや、大規模な言語モデルとして人気のある ChatGPT を含むカスタマー サービス チャットボットは、キーワードや感情的なシグナルを認識し、質問やリクエストに対して適切な応答を提供するように設計されていることを私たちは知っています。しかし、人が感じる共感を彼らは真似できるでしょうか?
コーネル大学、オーリン大学、スタンフォード大学のコンピューター科学者のチームは、Siri のような会話エージェントについて研究を行い、彼らがどのように共感を示すかを調べました。ほとんどの会話型エージェントは大規模な言語モデルを使用して動作することを思い出してください。これは、エージェントが多くの情報を所有またはシャッフルしていることを意味します。
勉強
専門家らは、これほど多くのデータが利用可能であるということは、情報を抽出する人間と同じ偏見によって、同性愛者やイスラム教徒といった特定の人間のアイデンティティについて偏見や判断を抱く傾向にあることを発見した。人工知能 (AI) チャットボットや大規模言語モデル (LLM) は、対話者に性差別や人種差別を誤って存在させてしまう可能性があります。
したがって、最大65 の異なる人間のアイデンティティと会話しながら AI に共感を示すよう促したところ、 AI が同性愛者やイスラム教徒などの特定のアイデンティティについて価値判断を行い、危険なイデオロギーを含む有害なイデオロギーに関連したアイデンティティを促進する可能性があることが研究チームは発見されました。ナチズム。
現在スタンフォード大学の博士研究員であるアンドレア・クアドラ氏は、「自動化された共感は、教育や医療分野などでポジティブなことを達成する多大な影響と大きな可能性を秘めていると思います」と説明した。 「(自動化された共感が)起こらない可能性は非常に低いので、実際に起こったとしても、潜在的な危害をより意図的に軽減できるよう重要な洞察を得ることが重要です。」

それは共感という幻想だ
同様に、機械は、少なくとも現時点では、感情を感じません。データを処理し、事前にプログラムされた応答を実行します。この制限は、治療や終末期ケアなど、深い感情理解や人間関係を必要とする状況では非常に重要です。つまり、専門家によると、 ChatGPTやLlamaなどの大規模な言語モデルの人工知能は、トレーニングに基づいてクエリに応答することはできるが、より深く掘り下げることはできないという。まとめると、LLM は感情的な反応では高いスコアを獲得しましたが、トピックの解釈と深化では低いスコアを獲得しました。

歴史的な失敗
この事件には、 Microsoft の Tay と Zo の事件など、非常に顕著な例があります。 Tay は高度な自然言語処理 (NLP) と機械学習 (ML) アルゴリズムを使用して作成されており、人間の会話パターンを模倣することができます。これは 2016 年に発表され、そのアイデアは Twitter ユーザーと優雅にやりとりすることでした。起こったことは予期せぬ壊滅的なものでした。一部のユーザーが悪質なトリックで Tay の学習アルゴリズムを悪用し、チャットボットに扇動的なコンテンツを大量に送り込んだため、公開されてから数時間以内に、Tay は人種差別的、性差別的で攻撃的なツイートを公開し始めました。その結果、Tay は打ち上げからわずか 16 時間で活動停止に終わりました。
Tay の後任には、やはり Microsoft の Zo が就任しました。以前のチャットボットで起こったことと同じことが起こらないよう、同社は改善されたセキュリティ対策を導入し、すべての人にとって安全で前向きなやり取りを行うために、物議を醸すデリケートなトピックを避けるようにプログラムされました。しかし、制限が多すぎるため、ボットは条件付きの応答を提供しすぎたり、ややデリケートなトピックを扱ったユーザーの投稿を無視したりするなど、機能不全に陥りました。その結果、ボットは少数派や疎外されたコミュニティに対して完全に冷淡で軽薄にさえ見えました。過去の両方の例は、共感型 AI チャットボットの開発の複雑さと課題を示しており、最新の研究では、人間を模倣することはそれほど単純ではない、または複雑さが伴わないことが現実に確認されています。

参考文献:
- アンドレア・クアドラほか「共感の幻想?」人間とコンピュータの相互作用における感情の表示に関するメモ、コンピューティング システムにおけるヒューマン ファクターに関するコンピューティング機械協会会議の議事録 (2024 年)。 DOI: 10.1145/3613904.3642336。 web.stanford.edu/~apcuad/files … llusion_CHI_2024.pdf
- ノミシャ・クリアン。 「いいえ、アレクサ、いいえ!」: 子供に安全な AI を設計し、大規模な言語モデルにおける「共感ギャップ」のリスクから子供たちを保護します。学習、メディア、テクノロジー、2024 年。 1 DOI: 10.1080/17439884.2024.2367052
- Alanazi, S.、Shabbir, M.、Alshammari, N.、Alruwaili, M.、Hussain, I.、および Ahmad, F. (2023)。正確な社会的相互作用を促進する知能エージェントの感情的共感の予測。応用科学。 https://doi.org/10.3390/app13021163。