タグ: スタンフォード

スタンフォード

  • アルゴリズムはあなたの顔を見ただけで同性愛者かどうかを見分けることができますか?

    あなたの顔の特徴を分析するだけで、機械があなたが同性愛者であるか、レズビアンであるか、異性愛者であるかを知る世界を想像できますか?スタンフォード大学(米国)の研究者チームによって設計されたばかりのコンピューターアルゴリズムが、その作成者が主張するのと同じくらい正確である場合、これは起こる可能性があります(左側は、同性愛者であるとされる特徴を完全に「特定」するシステムの画像)または異性愛者)。

    これらの科学者によると、彼らのシステムは、人間よりも高い成功率で顔を研究する被験者の性的指向を特定します。 91%の確率で男性が同性愛者であるかどうかを調べ(人は61%に留まる)、83%の確率で女性がレズビアンであるかどうかを調べます。一方、生身の知性がそれを達成する確率は54%です。ボランティアのグループに同じポートレートを見せて実施されたテストによると。

    この研究は『 Journal of Personality and Social Psychology』に掲載される予定だが、著者らは草稿と結論を公開しており、物議を醸しており、専門家やLGBT(レズビアン、ゲイの頭字語)コミュニティのメンバーの両方から反論されている。 、、バイセクシュアル、トランスセクシュアル)。

    議論の余地のあるサンプル

    この研究に対する批判は、研究が実施された方法とその基礎となっている仮定に基づいています。著者のMichal KosinskiとYilun Wangは、アメリカの出会い系サイトから入手した36,630人の男性のうち130,741枚と38,953人の女性のうち170,360枚の写真を使用した。

    これらの画像は顔検出テクノロジーのフィルターを通過し、14,776 人の最も鮮明な 35,326 枚の写真が残され、これらはソフトウェアによって分析されたものでした。これには、鼻の幅や口の形などの身体的特徴や、装飾、メイク、ヘアスタイルなどのその他の側面が考慮されます。これらのパラメータに基づいて、対象者の性的指向を示します。

    研究で使用された画像には白人のみが映っており、高齢者、バイセクシュアル、トランスジェンダーなどが含まれていないため、 LGBT団体は抗議している。

    しかし、彼らはまた、パートナーを見つけるためのウェブサイトから取られたものだと苦情を述べている。そこではほとんどの人が似たような写真を見せ、誘惑することを目的としており、現実を見せていない。名誉毀損に対するゲイ・レズビアン同盟であるGLAADのデジタルディレクターであるジム・ハロラン氏は、エル・パイス氏に対し、「出会い系サイトに登録することを選択した同性愛者が、似たような表現やスタイルで自分の写真を公開するのは驚くべきことではない」と指摘している。 。

    生まれつき同性愛者?

    しかし、この研究で最も批判を受けているのは、その背後にある理論と関係がある。著者らは、妊娠中に胎児が特定のホルモンにさらされることが性的傾向に影響を与えるのではないかと仮説を立てている。たとえば、赤ちゃんが男の子で、妊娠中に母親のテストステロンが低下した場合、胎児の脳の特定の領域が男性化されなくなり、同性愛者になる可能性が高くなります。

    アンドロゲン(テストステロンを含む男性ホルモン)は顔の形成に影響を与えるため、コシンスキーとワンは、ゲイは女性的な特徴を持ち、レズビアンは男性的な特徴を持つと仮定し、その仮定に基づいてアルゴリズムを開発しました。

    しかし、この出生前ホルモン理論が同性愛の主な原因であることを証明する決定的な証拠はありません。実際、ゲイ、レズビアン、トランスセクシュアルであることが遺伝子のみに備わっているものなのか、それともDNA、ホルモン、環境の間の複雑な相互作用の結果なのかは、科学でもまだわかっていません。

    さらに、この研究を批判する人たちは、人々の性的指向を特定するアルゴリズムや人工知能が開発され、差別につながるプライバシーへの侵害となる危険性を警告している。

    アルゴリズムはあなたの顔を見ただけで同性愛者かどうかを見分けることができますか?・関連動画

  • 人工知能は共感を偽ることができるのか?

    共感は複雑で多面的な感情であり、認知要素と感情要素の両方が重要です。他人の視点や精神状態を理解する能力、さらには他人が何を感じているかを感じる能力 (感情的共感として知られます)も必要です。これは、他人の感情を「反映」することを可能にする、脳のプロセスにおける人間の本質的な特性です。さて、人工知能はこのまさに人間の能力を偽ることができるでしょうか?

    人工知能は共感を偽ることができるのか?
    人工知能は共感を偽ることができるのか? – ミッドジャーニー/サラ・ロメロ

    本物のつながり

    Siri や Alexa などの仮想アシスタントや、大規模な言語モデルとして人気のある ChatGPT を含むカスタマー サービス チャットボットは、キーワードや感情的なシグナルを認識し、質問やリクエストに対して適切な応答を提供するように設計されていることを私たちは知っています。しかし、人が感じる共感を彼らは真似できるでしょうか?

    コーネル大学、オーリン大学、スタンフォード大学のコンピューター科学者のチームは、Siri のような会話エージェントについて研究を行い、彼らがどのように共感を示すかを調べました。ほとんどの会話型エージェントは大規模な言語モデルを使用して動作することを思い出してください。これは、エージェントが多くの情報を所有またはシャッフルしていることを意味します。

    勉強

    専門家らは、これほど多くのデータが利用可能であるということは、情報を抽出する人間と同じ偏見によって、同性愛者やイスラム教徒といった特定の人間のアイデンティティについて偏見や判断を抱く傾向にあることを発見した。人工知能 (AI) チャットボットや大規模言語モデル (LLM) は、対話者に性差別や人種差別を誤って存在させてしまう可能性があります。

    したがって、最大65 の異なる人間のアイデンティティと会話しながら AI に共感を示すよう促したところ、 AI が同性愛者やイスラム教徒などの特定のアイデンティティについて価値判断を行い、危険なイデオロギーを含む有害なイデオロギーに関連したアイデンティティを促進する可能性があることが研究チームは発見されました。ナチズム。

    現在スタンフォード大学の博士研究員であるアンドレア・クアドラ氏は、「自動化された共感は、教育や医療分野などでポジティブなことを達成する多大な影響と大きな可能性を秘めていると思います」と説明した。 「(自動化された共感が)起こらない可能性は非常に低いので、実際に起こったとしても、潜在的な危害をより意図的に軽減できるよう重要な洞察を得ることが重要です。」

    人工知能は共感を偽ることができるのか?
    心理学の用語では、共感とは、誰かの感情を知的に理解することだけでなく、その人の感情状態と真につながることでもあります – ミッドジャーニー/サラ・ロメロ

    それは共感という幻想だ

    同様に、機械は、少なくとも現時点では、感情を感じません。データを処理し、事前にプログラムされた応答を実行します。この制限は、治療や終末期ケアなど、深い感情理解や人間関係を必要とする状況では非常に重要です。つまり、専門家によると、 ChatGPTやLlamaなどの大規模な言語モデルの人工知能は、トレーニングに基づいてクエリに応答することはできるが、より深く掘り下げることはできないという。まとめると、LLM は感情的な反応では高いスコアを獲得しましたが、トピックの解釈と深化では低いスコアを獲得しました。

    人工知能は共感を偽ることができるのか?
    彼らは私たちの共感を真似できるでしょうか? – ミッドジャーニー/サラ・ロメロ

    歴史的な失敗

    この事件には、 Microsoft の Tay と Zo の事件など、非常に顕著な例があります。 Tay は高度な自然言語処理 (NLP) と機械学習 (ML) アルゴリズムを使用して作成されており、人間の会話パターンを模倣することができます。これは 2016 年に発表され、そのアイデアは Twitter ユーザーと優雅にやりとりすることでした。起こったことは予期せぬ壊滅的なものでした。一部のユーザーが悪質なトリックで Tay の学習アルゴリズムを悪用し、チャットボットに扇動的なコンテンツを大量に送り込んだため、公開されてから数時間以内に、Tay は人種差別的、性差別的で攻撃的なツイートを公開し始めました。その結果、Tay は打ち上げからわずか 16 時間で活動停止に終わりました。

    Tay の後任には、やはり Microsoft の Zo が就任しました。以前のチャットボットで起こったことと同じことが起こらないよう、同社は改善されたセキュリティ対策を導入し、すべての人にとって安全で前向きなやり取りを行うために、物議を醸すデリケートなトピックを避けるようにプログラムされました。しかし、制限が多すぎるため、ボットは条件付きの応答を提供しすぎたり、ややデリケートなトピックを扱ったユーザーの投稿を無視したりするなど、機能不全に陥りました。その結果、ボットは少数派や疎外されたコミュニティに対して完全に冷淡で軽薄にさえ見えました。過去の両方の例は、共感型 AI チャットボットの開発の複雑さと課題を示しており、最新の研究では、人間を模倣することはそれほど単純ではない、または複雑さが伴わないことが現実に確認されています。

    人工知能は共感を偽ることができるのか?
    彼らはユーザー エクスペリエンスを解釈して探索するのがそれほど得意ではないようです – Midjourney/Sarah Romero

    参考文献:

    • アンドレア・クアドラほか「共感の幻想?」人間とコンピュータの相互作用における感情の表示に関するメモ、コンピューティング システムにおけるヒューマン ファクターに関するコンピューティング機械協会会議の議事録 (2024 年)。 DOI: 10.1145/3613904.3642336。 web.stanford.edu/~apcuad/files … llusion_CHI_2024.pdf
    • ノミシャ・クリアン。 「いいえ、アレクサ、いいえ!」: 子供に安全な AI を設計し、大規模な言語モデルにおける「共感ギャップ」のリスクから子供たちを保護します。学習、メディア、テクノロジー、2024 年。 1 DOI: 10.1080/17439884.2024.2367052
    • Alanazi, S.、Shabbir, M.、Alshammari, N.、Alruwaili, M.、Hussain, I.、および Ahmad, F. (2023)。正確な社会的相互作用を促進する知能エージェントの感情的共感の予測。応用科学。 https://doi.org/10.3390/app13021163。

    人工知能は共感を偽ることができるのか?・関連動画