人工知能 (AI) はあなたの好み、習慣、ニーズを記録し、それらを先取りしようとします。これは機械学習のおかげで実現します。悪い点は、 AI が常にデータを学習して再解釈する人間との対話において、対話する相手によっては失敗したり、場合によっては変質したりすることさえあるということです。それは人種差別的、同性愛嫌悪的、性差別的になる可能性があります…それは実験的なチャットボットであるテイに起こりました。これは、人との会話をシミュレートできる人工知能に基づくコンピューターアプリケーションであり、マイクロソフト社は人々との会話から学習し、ほんの数日のうちに、ネオナチ的な考えを持ち始め、セックスに夢中になりました。グーグルも被害を受けた。画像整理ツールのGoogleフォトでは、ゴリラ専用のカテゴリに黒人も含めるようになりました。

しかし、これらの障害が、会話機能や単なる組織機能を備えたチャットボットだけで発生するわけではないとしたらどうでしょうか?特定の意思決定能力を備えた AI、 AlexaやGoogle Homeなどの仮想アシスタント、自動運転車、軍事ロボットでそれらが発生したらどうなるでしょうか?人工知能の登場により、機械のプログラミングや設計、そして進化の可能性の両方において、機械に一定の倫理を与えるべきかどうかについての議論が加速しています。ソフトウェアにはどのような値を入力する必要がありますか?これを道徳的にできるでしょうか?スペインの神経生物学者ラファエル・ユステ氏は、コロンビア大学(米国)の教授であり、米国の研究プログラム「BRAIN – 革新的な神経技術の進歩による脳研究 –」の推進者であり、専門家グループと協力して、科学的根拠を正しく適用するための倫理基準を確立しています。いわゆるニューロテクノロジー、つまり人間の脳に影響を与えることができるツールです。
これらの研究者は、人間とコンピューターのやり取りから得られる個人データは常に非公開であるべきだと考えています。 Google などの企業がユーザーから情報を収集し、取得したデータから新しいアルゴリズムを構築するために使用している機械学習は、フェデレーテッド ラーニングに置き換えられるべきだと彼らは考えています。前記フェデレーテッド ラーニングは、生成された情報がクラウドに送信されることなく、ユーザーのデバイス上で実行されるプロセスです。この方法では、テキストや電子メールなどが顧客のデバイスに残るため、 Googleやその他の企業はサーバー上のデータから抽出された教訓のみを受け取ることになります。
ユステ氏らは、個人のアイデンティティと私たちの選択能力は基本的人権とみなされ、神経技術やAIの悪用から私たちを守るために国際条約に組み込まれるべきだと主張している。とりわけ彼らは、個人に取って代わり、自由意志を操作できる機械学習デバイスやブレイン・インターフェースを恐れています。さらに、彼らは、複数の脳を接続できる技術の開発の危険性について警告しており、それは私たちが何者であり、どこで行動するのかについての私たちの理解に影響を与える可能性があると述べています。
これらの研究者らによると、人間の能力向上を目的としたAIの使用も制限されるべきだという。そして、その軍事利用の可能性は監視されるべきである。ユステ氏はオープンで徹底的な議論に賛成しているが、その理由は「特定のテクノロジーを禁止すると、それらがアンダーグラウンドに押しやられる可能性がある」からだ。 AI が持つ可能性のある偏りや偏見も、このワーキング グループにとって懸念が高まっています。AI 開発者の偏見や興味によって、特定の社会グループに特権を与えるテクノロジーが生み出される可能性があるからです。機械学習に基づいたシステムではリスクが大きくなります。
この問題を回避する方法の 1 つは、ユーザー グループ、特に最も疎外されているユーザー グループが、開発の初期段階からバイアスに対処するためのアルゴリズムやデバイスの設計に関与することです。ユステ氏と彼の協力者が作成した文書では、「宗教、民族、社会経済的背景が異なる国や人々は、異なるニーズや視点を持っている」と認識している。そしてここで興味深い点に行き着きます。倫理は 1 つだけではなく、多数存在するということです。

欧州連合の科学と新技術の倫理に関する欧州グループ(GEE)は、さまざまな分野の12人のメンバーで構成され、条約とEU権利憲章の価値に基づいた一連の基本的な倫理原則を提案しました。基本: 人間の尊厳、自主性、責任、正義、公平性と連帯、民主主義、法の支配と説明責任、身体的および精神的な安全と完全性、データ保護とプライバシー、持続可能性。ドイツなどの国ではすでにこの問題に関して法制化されており、国際的な専門家グループは人工知能の危険性を排除または軽減するためのガイドラインを記載したガイドを開発中です。ロボット、ソフトウェア、デバイスのメーカーと設計者が協力して開発します。その考えは、法律となる基準と手順を作成し、AI アルゴリズムが厳格な倫理原則に従って動作することを保証することです。
しかし、この標準化には問題があります。前にも述べたように、何が正しくて何が間違っているかという概念は、個人、社会、イデオロギー、宗教の間で異なります…マサチューセッツ工科大学 (MIT) での最近の実験では、参加者は – 233 か国の 230 万人が、自動運転車になって誰を轢くかを選択するビデオ ゲームに参加しました。彼らには常に 2 つの選択肢が与えられ、彼らの意見で最も悪くない方を選択しなければなりませんでした。社会や国に関係なく、動物の命よりも人間の命を確保すること、できるだけ多くの人々を守ること、そして子供たちを高齢者から救うという3つの共通の要素があることが観察されました。最も救出できたのは、ベビーカーに乗った赤ちゃん、女の子、男の子、妊婦の順だった。最も犠牲となったのは、同様に犯罪者、高齢者、ホームレスでした。
しかし、社会の宗教的信念に基づいた実験参加者の決定にも違いが見られ、それは多くの場合、その社会で育った無神論者や不可知論者の倫理や道徳を特徴付けることにもなった。ビデオゲームで轢く相手を選ぶ際、年齢、性別、収入、学歴、イデオロギー、居住国はそれほど決定要因ではなかった。 MITの研究者らは、その決定に基づいていくつかのグループを区別することができた。北米とヨーロッパの参加者は、肥満の人より運動選手を救うことを好む傾向があり、アジア人は西洋人よりも高齢者を保護する傾向があった。貧しい国では、女性は他の国よりも尊敬されていました。
もしこれらの違いが機械で再現されれば、私たちは危険な状況に直面することになるでしょう。しかし、研究の著者らが結論付けているように、機械に普遍的な道徳を作り出すのは非常に複雑な作業になるでしょう。理論についてはこれくらいです。しかし、倫理的なロボットを作るにはどうすればよいでしょうか?これらのマシンのほとんどは、プログラマーによって設定された 3 つの段階 (目的、その達成に必要なタスク、および運動動作) で動作します。アメリカのロボット工学の専門家であるロナルド・C・アーキン氏によると、ロボットがやろうとしていることが実行前に正しいかどうかを評価する倫理層を、これらの3つの段階のそれぞれの間に導入できるそうです。これは、前段階で確立された手順を実行するかどうかを決定する一種のミドルウェアになります。これを行うために、考えられる代替案を評価し、最も適切なものを選択できるようにします。

それは人間と同じような行動方法です。アメリカとイスラエルの著名な心理学者ダニエル・カーネマンは、人は少数の行動オプションしか考慮しないため、それが意思決定をより明確かつ迅速に行うのに役立つと主張しています。ロボットの場合も同様のことが起こります。選択できるオプションは少ないほど良いのです。限られた数の行動の代替案を評価することで、応答性が向上し、倫理層による操作の遅延が防止されます。すでにこれらのモデルに取り組んでいる企業があります。たとえば、 Ethyka は、アプリ、ウェブサイト、チャットボット、仮想アシスタント、自動運転車の AI に倫理モジュールを導入するスペインの新興企業です。そのプラットフォームがあらゆる種類の人工知能システムの破損を確実に防止し、人工知能システムによる意思決定と道徳的ジレンマの解決を支援します。その共同創設者でディレクターのクリスティーナ・サンチェス氏は、次のように説明しています。「仮想アシスタントは、クライアントと対話することで機能を強化しますが、倫理モジュールを組み込まない限り、仮想アシスタントは善と悪を区別しません。彼らは、話しても何が良くて何が悪いのかはっきりさせない子供のようなものです。」
この会社の倫理ソフトウェアは、AI が導入されている文化、社会、企業の倫理原則を理解できるように構成されています。多国籍企業がそれを使用する場合、事業を展開するそれぞれの国や文化に適応させることができます。たとえば、弁護士会社は、地元の弁護士や裁判官との取引に必要なすべての法的原則を追加できます。サンチェス氏によると、同社のテクノロジーは対話者の偏見や偏見を検出し、「会話の方向を変える方法を知っている」ほどだという。開発者は、皮肉や皮肉さえも認識できるように取り組んでいます。
理想的には、これらの倫理ロボットは、たとえばスマートカーであれチャットボットであれ、自分の行動の結果を評価し、その選択を道徳的に正当化できるようになります。しかし、シンシナティ大学 (米国) とブリストルロボット研究所 (英国) の専門家によって行われた「倫理的ロボットのダークサイド」と題された研究では、3 つの実験を通じて、ロボットのプログラミングを変更して競争力があり、攻撃的ですらあります。十分な知識を持つハッカーが AI マシンを制御し、そのプログラミングを改ざんできる可能性は常に存在します。
また、悪徳メーカーが、世間知らずのユーザーや脆弱なユーザーを搾取する目的でアンドロイドを開発する危険性もあります。さらに、ロボットには構成可能な倫理設定が含まれているという事実は、重大なリスクを伴う可能性があります。ユーザーまたは技術サービス自体がこの設定を誤ってまたは意図的に変更した場合はどうなりますか?サイバー攻撃が起きたらどうなるのか?マシンの動作がもはやその倫理層の影響を受けなくなっているか、あるいは悪い方向に操作されている可能性があります。自動運転車や軍事機械がハッキングされる可能性があると考えると不安になります。ただし、ハッキングとその危険な結果を回避する方法はいくつかあります。まず、暗号化に注意することが非常に重要です。

理想的には、デフォルトでは、ロボットは明示的な倫理的行動をとらずに起動時に動作し、安全なサーバーに接続した後にのみアクセスします。後者にアクセスするための認証に失敗した場合、このソフトウェアは無効になり、ロボットは倫理層を必要とせずに単に機械モードで機能します。
ロボット倫理は常に必要ですか?数学者で人工知能とロボット工学の専門家であるカルメ・トラス氏に尋ねると、少なくとも自動運転車に関しては、彼女はそれを否定した。 「これらの車両には、破ることができない固定の交通規則が定められています。彼らに選択肢を与えることはできません。自動運転車にとって、意思決定は倫理的ジレンマの問題ではなく、適切に処理されると特定の動作が実行される視覚パターンの問題になるでしょう」と CSIC ロボット工学・産業情報学研究所のこの研究教授は述べています。カタルーニャ工科大学。この場合、それは純粋に技術的な問題になります。 「論理的に考えて、これらの車は広く受け入れられている価値観に違反していませんが、車が意思決定を行うわけではありません」と彼は私たちに言います。

より一般的なレベルでは、トーラス氏はプログラマーと協力するテクノロジー企業に弁護士、哲学者、社会科学研究者を導入することを主張している。同氏はまた、技術者が人文科学と倫理に関する広範な訓練を受け、大学教育において分野があまり分離されないことが望ましいと考えている。 「国民自身がより学際的になることがより重要だろう」と彼は指摘する。ロボットを作成する人が倫理を二次的なものとして放置している場合、ロボットが複雑な道徳的判断に対処することは困難です。人類が自らの道徳基準や行動に疑問を抱かずに、今後数年間でロボット倫理について議論することは非常に難しいと思われる。
*この記事は元々 Muy Interesante の印刷版に掲載されたものです
