タグ: チャットボット

チャットボット

  • WhatsApp に統合されたスペイン語チャットボット LuzIA が歴史を作る

    LuzIa は、私たちの母親が使用できる人工知能であるというメッセージの下、スペインのアプリとして我が国で最速で 100 万人のユーザーに到達しました。そして、このAI チャットボットは、 3 月末のローンチ以来、今のところ無料サービスですが、音声を聞く代わりにメッセージを読みたいすべての人にとって非常に興味深いオプションとなっています (場合によっては、ポッドキャストの長さに対する評価)。

    ルジアとは何ですか?

    これは、「スペイン製」の人工知能チャットボットの代替品です。 LuzIA は、テキストの要約、記事の説明、疑問の解決、電話で受信または送信された音声の文字起こしを行うことができます。

    ハビエル・アンドレス (チケットケアの創設者)、アルバロ・マルティネス・ヒゲス、カルロス・ペレスによってスペインで開発されたこのツールは、 ChatGPT と WhatsApp の API (スペイン語でアプリケーション プログラミング インターフェイス) の機能を統合しているため、このインテリジェントなユーザーとの会話を維持できます。笑顔で楽しい顔をしたボット。世界で最もダウンロードされているアプリ内でのエクスペリエンスを促進するさまざまな機能を提供します。

     WhatsApp に統合されたスペイン語チャットボット LuzIA が歴史を作る
    WhatsApp に統合されたチャットボット LuzIA、スペインで成功 – Midjourney/Sarah Romero

    シリコンバレーに本拠を置き、Airbnb などの企業への投資で成功を収めている A* Capital の支援と投資を受けているこのスペインの取り組みの公式ウェブサイトでは、 「登録なし、ダウンロードなし、広告なし」でLuzIA のすべての機能が示されています。 、100%機密で無料です。」このサービスは常にオンラインであり、迅速かつ簡潔な応答を提供し、人間との会話機能があり、非常に使いやすいです。

    インストールと機能

    LuzIA を携帯電話に追加するには、公式 Web サイトにアクセスし、「今すぐ試す」ボタンを押して WhatsApp に追加するだけです。とてもシンプルです。次に、LuzIA がチャットを使用できる状態の連絡先になる様子がわかります。このチャットボットは、次のような幅広い機能に使用できます。

     WhatsApp に統合されたスペイン語チャットボット LuzIA が歴史を作る
    これはLuzIAです – LuzIA

    音声メッセージを録音し、書き写すように依頼します

    地下鉄に行く途中や散歩中にWhatsAppメッセージに返信したい場合、この機能は非常に実用的です。リクエストを示す通常の音声メッセージを録音するだけで、自動的に書き起こされるので、あたかも自分で書いたかのようにテキスト形式で送信できます。

    テキストを別の言語に翻訳する

    また、テキストを任意の言語に翻訳したり、その逆の翻訳を依頼したりすることもできます。たとえば、スペイン語から日本語への翻訳者としての役割を果たしたり、日本語のテキストをスペイン語に翻訳したりするよう依頼することができます。

    料理のレシピを聞く

    ChatGPT で、レシピを繰り返さずに自宅で料理できるように、すべての食事で週ごとのメニューを作成するように依頼した場合、LuzIA を使用すると、まったく同じことができます。 「夕食は軽めにすることと、私はアボカドが好きではないことを考慮して、朝食、昼食、夕食の週のメニューを用意してください。」のようにリクエストするだけです。

    インスピレーションを見つける

    物語を書きたい場合は、LuzIA に、おそらく雄弁で興味深いと思われるいくつかのアイデアをインスピレーションとしてもらうよう依頼できます。チャットボットが作成した提案に基づいてコンセプトを調査および生成し、そこから続行できます。選択肢は無限にあります。

    注: LuzIA をモバイルに統合する際に何らかの問題が発生した場合、それはチャットボットの大きな成功によるものであり、同社はできるだけ早く容量を増やすために取り組んでいるとコメントしています。

    参照:

    LuzIA ウェブサイト 2023

    WhatsApp に統合されたスペイン語チャットボット LuzIA が歴史を作る・関連動画

  • ChatGPTによると、幸福への鍵

    幸福への道はただ一つ、それは私たちの意志の力を超えたものについて心配するのをやめる事です。」この言葉はギリシャの哲学者エピクテトスの言葉であると考えられています。ストア学派に属していたエピクテトスは、人生のかなりの部分をローマで奴隷として過ごし、解放後は史上最も重要な哲学者の一人となりました。

    ChatGPTによると、幸福への鍵
    幸福の探求は人間の生活の中に非常に存在しています。 – iStock

    知られている限り、エピクテトスは何も書いていません。彼の弟子フラウィウス・アーリアンがその教えを書き残したという事実のおかげで、私たちは彼の教えを知ることができます。ストア派は、幸福またはユーダイモニアを理性に従って人生を送ることとして理解しました。

    幸福の探求は、歴史を通じて人間の生活の中に非常に存在してきました。私たちは幸せになりたいと思っており、それを達成するために全力を尽くします。しかし、2011年に米国心理学会の機関誌「感情」に発表された研究では、研究者らは、幸せであることを高く評価する人は孤独を感じる可能性が高く、この要因がしばしば不幸やうつ病に関連していると結論付けた。

    「幸福は幸福の重要な要素です。したがって、幸福を大切にすることが有益な結果をもたらすと期待するのは当然です。ただし、常にそうとは限りません。逆に、幸福を大切にすることは逆効果になる可能性があります。幸福を大切にすればするほど失望を感じる可能性が高くなるからです。これは特に人々が幸せを感じる理由がある前向きな状況に当てはまるはずだ」と研究者らは当時述べた。

    幸せであることに執着するのは良い考えではないかもしれませんが、一般的により幸せな人生に貢献する傾向がある特定の側面を知ることは前向きなことです。 AI チャットボットChatGPTに幸せの鍵は何かと尋ねたところ、こう答えてくれました。

    「私の意見では、ある人を幸せにするものは別の人にとっても同じではないため、幸せの鍵は人によって異なります。しかし、全体的により幸せな人生に貢献する傾向のある側面もいくつかあります。」側面は次のとおりです。

    自己受容と自己愛。それは、自分の弱さや強さを含めて、自分自身を受け入れることを学ぶことです。そのためには、自分自身に対して前向きな姿勢を養い、セルフケアを実践する必要があります。

    健全な社会関係を確立します。これは、私たちが友人、家族、愛する人と有意義で協力的な関係を築いていることを意味します。これらの人々と瞬間を共有し、サポートを与えたり受け取ったりすることで、私たちはより大きな幸福を感じることができます。

    興味深いことに、現時点で OpenAI チャットボットは、ハーバード大学の研究として広く知られている有名な幸福度調査の結果と一致しています。この研究は 1938 年に始まり、現在も続いていますが、人間を本当に幸せにするのは前向きな人間関係であることが判明しました。研究者らによると、愛情に満ちた関係に身を置くことで、私たちの身体と精神が守られるそうです。

    目的を持ち、人生の意味を見出しましょう。これを行うために、 人工知能は重要な目標と目的を設定することを推奨します。また、情熱を注ぐことができ、充実感を感じられる活動を見つければ、幸福度が高まる可能性があるとも主張しています。

    感謝の気持ちを実践し、人生の良いことを感謝しましょう。そうすることで、私たちは視点を変え、小さなことを大切にし、それを楽しめることが幸せになるようになります。 「欠けているものに焦点を当てるのではなく、自分が持っているものを認識して大切にすることで、より高いレベルの満足感につながる可能性があります」と ChatGPT は言います。

    バランスと身体的健康。幸せになるためには、身体的に健康であることが重要です。身体的な健康を維持するということは、バランスの取れた食事を摂り、定期的に運動し、十分な睡眠をとり、健康全般に気を配ることを意味します。健康な体は、私たちの気分や精神的な幸福に良い影響を与えます。

    ChatGPT は、その推奨事項を次のフレーズで締めくくっています。「幸福とは主観的で個人的な概念であることを忘れないでください。重要なことは、何が自分を幸せにするのかを特定し、人生の中でそれらの側面を伸ばす方法を探すことです。」

    参考文献:

    Waldinger、R. 成人発達の研究。ハーバード大学医学部。ブリガム・アンド・ウィメンズ病院。 http://hr1973.org/docs/Harvard35thReunion_Waldinger.pdf

    IB モース、M. タミル、CL アンダーソン、NS サビノ (2011)。幸福を求めると人は不幸になるのでしょうか?幸福を大切にすることの逆説的な効果。感情、DOI: https://doi.org/10.1037/a0022010

    ChatGPTによると、幸福への鍵・関連動画

  • これが、一部の企業が従業員にChatGPTの使用を禁止している理由です。

    ChatGPTは、さまざまな仕事で非常に役立つアシスタントです。ただし、 チャットボットの使用が完全に無害であるとは限らないため、一部の企業では従業員によるチャットボットの使用を禁止しています。

    これが、一部の企業が従業員にChatGPTの使用を禁止している理由です。
    ソフトウェア エンジニアは、仕事で ChatGPT を積極的に使用している専門家の一部です。 – iStock

    別の会社が所有するオンラインAIプラットフォームに仕事関連の情報をアップロードすると、セキュリティとプライバシーが侵害される可能性があります。そしてそれが、その使用を禁止した企業が最も恐れていることだ。

    さまざまな分野の専門家をつなぐアプリ、Fishbowl が 11,793 人を対象に行った調査によると、回答者の 43% が ChatGPT などの AI ツールを仕事のタスクで使用しています。 Meta、Amazon、Bank of America、Edelman、Google、IBM、JP Morgan、McKinsey、Nike、Twitter などの企業で働いていた回答者のうち、 68% はAIツールの使用について上司に知らせていないと回答しました。 32% は、上司が職場でそれを使用していることを知っていたと述べました。

    ソフトウェア エンジニアは、コードの作成、テスト、デバッグの作業で ChatGPT を積極的に使用している専門家の一部です。もちろん、エラーが発生しないようにAIの上に置く必要があります。

    最近、 Samsung Electronics は、同社のエンジニアが機密コードをコピーして ChatGPT に貼り付けた後、生成 AI の使用に対して措置を講じました。他の企業と同様に、Samsung は、ChatGPT やBardなどの AI プラットフォームにアップロードされたすべての情報がそれらの企業のサーバーに保存され、情報にアクセスしたり削除したりすることができないことを懸念しています。

    OpenAI は、ChatGPT で書かれたものをすべて使用してシステムを改善できます。企業が懸念しているのは、機密情報や機密情報がチャットボットに提供され、チャットボットが意図せずに他のユーザーと共有してしまうことです

    さらに、OpenAI は引き続きセキュリティ問題を解決します。 ChatGPTは、ユーザーが他のユーザーのチャット履歴のタイトルを閲覧できるバグを修正するため、3月に一時的に閉鎖された。 1か月後の4月、OpenAIはユーザーがチャット履歴を無効にすることを許可したが、これによりChatGPTがAIモデルのトレーニングにデータを使用できなくなると同社は述べた。

    従業員に対する ChatGPT の使用を禁止している企業があるのと同じように、独自の生成 AI を作成している企業もあります。これは Amazon の場合で、1 月に ChatGPT を禁止し、現在は CodeWhisperer と呼ばれる独自の AI を開発者が利用できるようにしています。

    Appleも昨年5月、機密情報の漏洩を避けるため、ChatGPTの使用を一部の従業員に制限した。同社はOpenAIのチャットボットと競合する独自のAIを開発している。

    6月、オーストラリアのコモンウェルス銀行はChatGPTの使用を制限し、同行自身がシリコンバレーのテクノロジー企業H2O.aiと協力して開発したCommBank Gen.ai Studioと呼ばれる同様のツールを使用するよう技術スタッフに命じた。

    バンク・オブ・アメリカ、シティグループ、ドイツ銀行、ゴールドマン・サックス、ウェルズ・ファーゴ、JPモルガンなどの他の銀行は、従業員によるChatGPTの使用を全面的に禁止した。

    オーストラリアの一部の法律事務所や病院はこのツールを禁止している。後者の場合、一部の医療従事者が AI を使用して個人的な医療記録を作成したため、この決定が下されました。

    反対側のコカ・コーラは、ChatGPT と画像生成 AI Dall-E を使用してコンテンツを作成することを計画しています。

    将来的には、生成 AI がオフィスに定着すると思われますが、今のところ、多くの企業は利点よりもリスクの方が大きいと考えています

    参考文献:
    ティロ、D. 2023年。人事リーダーの半数がChatGPTガイドラインを展開中。 https://www.hcamag.com/au/specialisation/hr-technology/one-half-of-hr-leaders-rolling-out-chatgpt-guidelines/440383

    職場で ChatGPT を使用している労働者の 70% は上司に伝えていません。専門家全体の使用率は 43% に跳ね上がります。 https://www.fishbowlapp.com/insights/70-percent-of-workers-using-chatgpt-at-work-are-not-telelling-their-boss/

    これが、一部の企業が従業員にChatGPTの使用を禁止している理由です。・関連動画

  • ChatGPTによる最高のペットの名前

    ペットの名前を選ぶのは非常に個人的な決定です。ある人にとっては、何らかの理由で特定の名前が自分のペットに最適である可能性がありますが、別の人は、おそらくその名前が嫌いな人や悪い関係にあった人を思い出させるため、まったく好きではないかもしれません。

    ChatGPTによる最高のペットの名前
    ペットの名前を選ぶのは非常に個人的な決定です。 – iStock

    ペットに最適な名前を​​知り、動物の名前を探している人にアイデアを提供できるようにするために、 ChatGPTに尋ねたところ、この人気のある創造的な名前のリストが提案されました。彼はまた、その意味を私たちに示してくれました。

    最大。これはラテン語に由来し、「最も偉大な」または「最も著名な」を意味する名前です。大型で元気な犬によく使われる名前です。

    かわいい。ベラはイタリア語起源の名前で、「美しい」または「美しい」を意味します。特にエレガントな外観や特に美しいペットに人気があります。

    チャーリー。チャーリーは英語起源の名前で、「自由人」を意味するチャールズの短縮形です。さまざまな性格の犬や猫に似合う万能な名前です。

    月。ラテン語で「月」を意味する名前が由来で、穏やかだけどどこか不思議なペットとして人気があります。白や灰色の動物にも。

    トビー。これはトビアスに由来するヘブライ語起源の名前で、その意味は「神は善です」です。愛情深く遊び心のあるペットに適した、ハッピーでフレンドリーな名前です。

    デイジー。デイジーは英語由来の名前で、「デイジー」を意味し、女性のペットに最適な甘くて繊細な名前です。

    ロッキー。 Rocky は英語に由来しており、多くの場合「ロッキー」または「岩のように強い」と関連付けられます。勇敢でエネルギッシュなペット、特に筋肉質で活動的な犬に適した名前です。

    ココナッツ。これはスペイン語起源の名前で、「ココナッツ」または「カカオ」に関連している可能性があります。いたずら好きで元気いっぱいのペットにぴったりの、遊び心のある楽しい名前です。

    マイロ。これはゲルマン語に由来し、「親切」または「親切」を意味します。愛情深く忠実な犬や猫の人気の名前です。

    ルーシー。ルーシーはラテン語に由来する名前で、「光」を意味するルシアを小さくしたものです。愛情深いペットにふさわしい、甘くてフレンドリーな名前です。

    オリバー。オリバーは英語由来の名前で、「平和を持つ人」または「平和な人」を意味します。人懐っこくて穏やかなの人気の名前です。

    ローラ。 Lola はスペイン語起源の名前で、「痛み」または「苦しみ」を意味する Dolores を小さくしたものです。その意味にもかかわらず、ローラは幸せで活発な名前であり、遊び心と楽しい動物に最適です。

    ゼウス。ゼウスはギリシャ語に由来し、ギリシャ神話に登場する神々の王の名前です。力強くて威厳のある名前で、強くて支配的なペットに適しています。

    ペニー。ペニーはイギリス出身です。ペネロペを小さくしたもので、ギリシャ語で「織り手」を意味します。甘さと魅力を連想させる女性のペットの名前です。

    オスカー。これはアイルランド語に由来し、「槍投げ者」または「鹿の友達」を意味します。力強く勇敢な名前で、活動的でエネルギッシュなペットに最適です。

    ルビー。ルビーは英語由来の名前で、ルビーに関連しています。赤みがかった毛並みのペットや、あなたの人生を明るくしてくれるペットにぴったりの、活気に満ちたエレガントな名前です。

    相棒。バディとは「友達」「仲間」を意味する英語の名前です。フレンドリーで愛情深いので、忠実で愛情深いペットに最適です。

    モリー。モリーはアイルランド起源の名前で、ヘブライ語で「苦い」を意味するメアリーを小さくしたものです。その意味にもかかわらず、モリーは優しくて魅力的な名前で、フレンドリーで楽​​しいペットに適しています。

    シンバ。アフリカ起源で「ライオン」を意味します。映画「ライオン・キング」の有名なキャラクターの名前として知られています。これは、支配的な態度を持つペットのための強力で大胆な名前です。

    ジンジャー。ジンジャーは英語で赤色、または同名のスパイス(生姜)を指す名前です。元気でスパイシーな名前で、赤みがかった毛皮のペットや、遊び心があって元気な性格のペットに適しています。

    ChatGPT は、ペットに最適な名前を​​選択するためのより多くのアイデアを提供します。動物の性格や外観に一致するものを選択したり、映画、本、テレビ番組のお気に入りのキャラクターからインスピレーションを得たものを選択したりできます。 「最も重要なことは、名前があなたのペットとあなた自身の好みに合うということであることを忘れないでください」とチャットボットは言います。

    ChatGPTによる最高のペットの名前・関連動画

  • AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット

    テクノロジーが私たちの生活のあらゆる側面を変革する人工知能の時代には、宗教も例外ではありませんでした。最近、 「神」チャットボットのようなものが登場しました。これは、スピリチュアルなアイデアを提供するために宗教文書に基づいて訓練された人工知能システムです。

    これらのチャットボットは、大規模な言語モデルを使用して、スピリチュアルな導きへの即時アクセスを提供することを約束します。しかし、その使用は倫理的、神学的、そして実際的な一連の疑わしい問題を引き起こします。

    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット
    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット – Baona / iStock

    具体的には、聖書( Bible.AI )、コーラン ( QuranGPT )、バガバッド ギーターによるヒンドゥー教の原則 ( Gita GPT )、または仏教( Buddhabot ) に基づいて、質問に答え、情報やアドバイスを提供するように設計されたチャットボットがすでに存在します。他にも、使徒聖パウロマルティン・ルター、哲学者孔子の人物に捧げられたものや、デルフィの神託を模倣したものもあります。

    「神聖な」利点

    何千年もの間、さまざまな宗教の信者は、死後の魂の運命など、人間存在の最も深い謎についての知識を得るために、聖典の研究に長い時間、あるいは一生を捧げてきました。

    現在、これらのチャットボットの作成者は、大規模言語モデル (LLM)がこれらの古代の神学的謎を一夜にして解決するとは信じていません。しかし、ボットは、膨大な量のテキスト内の微妙な言語パターンを識別し、人間のような言語でユーザーに応答する能力 (自然言語処理 (NLP) と呼ばれる機能) を利用して、理論的には精神的なアイデアを合成できると考えています。ほんの数秒で、ユーザーの時間とエネルギーを節約します。言い換えれば、神の知恵が必要に応じて与えられるということです。

    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット
    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット – システィーナ礼拝堂のミケランジェロのフレスコ画 (バチカン美術館)

    注目すべき例は、インドのカルカッタ出身の 20 歳のイスラム教徒学生、ライハン カーンによって設計されたチャットボットであるQuranGPTで、コーランに基づいて回答を提供することを目的としています。

    ラマダン初日の真夜中直前のこの打ち上げは大きな関心を呼び、わずか7時間で大量のトラフィックによりシステムが崩壊した。しかし、その受け入れ方には、擁護者も中傷者もいます。

    その作成者は、 QuranGPTがすでに世界中で約23 万人に使用されていると主張し、AI が人々を最も深い精神的な質問への答えに結び付ける架け橋として機能できると信じています。

    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット
    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット – kursadgenc / iStock

    しかし、専門の神学者の多くは、これらのツールを宗教と組み合わせることに深刻な懸念を抱いています。実際、一部の AI 専門家は、経典を解釈するためにこれらの発明が使用されることは、このテクノロジーに対する根本的で潜在的に危険な誤解に基づいていると考えています。逆説的ではありますが、宗教コミュニティはさまざまな種類の AI を導入し、AI を使用しています。

    こうした新たな事例の 1 つは聖書の翻訳です。以前は、この作業は非常に遅かったです。参考までに、1611 年に初めて出版された欽定訳聖書の古代資料の翻訳には、数十人の学者がこの仕事に専念して7 年かかりました。

    しかし、これらのモデルはプロセスを加速し、この神聖な本の範囲を拡大することを可能にしています。たとえば、昨年、南カリフォルニア大学のコンピューター科学者たちは、聖書を「低リソース」言語(つまり、ほとんど文書が存在しない言語)に翻訳するプロジェクトであるギリシャルームを立ち上げました。 ) AI チャットボット インターフェイスを使用します。

    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット
    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット – iStock

    さらに、これらのモデルは、聖書翻訳間の言語的差異を研究する手段としても使用されています。今年初めにプレプリント サイトarXiv.comにアップロードされた研究論文の中で、科学者の国際チームは、感情分析 (テキスト内の感情価を検出する NLP 対応プロセス) を使用して、イエスの山の説教を分析する方法について説明しました。新約聖書の最も有名な一節 ( 「柔和な人は幸いです、彼らは地を受け継ぐからです…」 )。

    研究者らは、欽定訳聖書を含むこの説教の5つの異なる翻訳を分析した結果、それぞれの場合で「それぞれの翻訳の語彙が大きく異なることを発見した」。彼らはまた、「イエスがメッセージを伝えるために用いたそれぞれの章で、さまざまなレベルのユーモア、楽観主義、共感を発見した」。

    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット
    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット – Getty Images

    しかし、AI が神学や宗教研究の活性化に役立つ可能性があると信じる人もいます。コンピューター科学者のマーク・グレイブス氏は、サイエンティフィック・アメリカンに語ったように、これらのマシンは宗教的正統性の硬直性を侵食するために仮説的に使用される可能性があると信じている。

    AI の倫理的課題に取り組む非営利団体AI and Faith を運営するグレイブス氏は、「ある意味、この 800 年間、神学には新しいことはあまりありませんでした」と述べました。 「生成 AI はその移行を支援し、新しいアイデアを生み出すことができます。」と彼は付け加えました。

    彼は例として、聖アウグスティヌス(西暦 354 ~ 430 年) の作品で訓練された可能性のあるチャットボットの事例と、トマス アクィナス(1225 ~ 1274 年頃) の著作で訓練された可能性のあるチャットボットの事例を挙げています。神学者たちは、この2人の非同時代人を互いに「会話」させ、おそらく悪の性質などについての実りある質問につながる可能性がある。

    物議を醸す組み合わせ

    しかし、他のAI専門家はより慎重だ。ハーバード大学の宗教研究の研究者であるトーマス・アーノルド氏は、「これらのチャットボットに暴露的な性質をもたらすことで、お金や悪名を獲得し、注目を集めたいという誘惑が生まれるだろう」と同媒体で指摘している。

    宗教文書に基づいて訓練されたチャットボットには、「現在すべての主要な言語モデルが抱えているのと同じ欠陥がいくつかあるだろう。その最大の欠陥幻覚だ」とセントジョン大学の神学およびコンピューターサイエンスの教授であるノリーン・ハーツフェルド氏は警告する。ミネソタ州 (米国) 。 「彼らは物事を発明するつもりです。そして、もし人々がこれらのモデルが言っていることが実際にコーランや新約聖書にあると信じているなら、彼らは大きく騙される可能性があります」と彼は言う。

    「チャットボットは単なる相関関係の機械です」と、AI を専門とする人類学者であり、チューリッヒ大学 (スイス)のデジタル宗教教授であるベス・シングルラー氏は言います。 「それは[テキストの]コーパスを取得し、単語をリミックスし、どの単語が次に続くかの確率に従ってそれらを並べて配置します。…それは教義を理解して説明することと同じではありません」と彼は明確にします。

    したがって、これらのチャットボットにアドバイスを求める人に対して、専門家は、言葉は常にさまざまな方法で解釈される可能性があり、間違いを犯す人間だけでなく、失敗する可能性のある機械によっても解釈される可能性があることを念頭に置いて、これらのツールを賢明に使用するよう人々に勧めています。

    参考文献:

    • ライト、W.「神への近道」。サイエンティフィック アメリカン マガジン Vol. 330 No. 4 (2024 年 4 月)、p. 37土井:10.1038/scientificamerican0424-37
    • ヴォラ、M.ブラウ、T、他。 「聖書の感情分析のための大規模な言語モデル: 山上の説教」。 arXiv (2024)
    • ショーン。 「トーマス アーノルド/神学、AI、および人間とロボットの相互作用」AI と信仰 (2019)

    AI が宗教に登場: オンデマンドで精神的な知識を提供する「神」チャットボット・関連動画

  • フォルクスワーゲンはChatGPTを標準として提供する最初の大量生産メーカーとなる

    1月9日から12日まで開催される世界で最も重要なエレクトロニクス見本市であるCES 2024で、フォルクスワーゲンは人工知能ベースのChatGPTチャットボットがIDA音声アシスタントに統合された初の車両を展示する。将来的には、顧客は、IDA 音声アシスタントを搭載したすべてのフォルクスワーゲン モデルで、この増え続ける人工知能データベースにシームレスにアクセスし、運転中にコンテンツを読み上げてもらうことができるようになります。テクノロジー パートナーである Cerence Inc. の Cerence Chat Pro は新機能の基盤であり、独自のインテリジェントで高品質な ChatGPT 統合を提供します。フォルクスワーゲンは、2024 年の第 2 四半期からチャット GPT を多くの量産車に標準として提供する最初の大量生産メーカーとなります。

    フォルクスワーゲンはChatGPTを標準として提供する最初の大量生産メーカーとなる
    フォルクスワーゲン ゴルフ GTI

    新しいチャットボットは、次のモデルの最新世代のインフォテインメント システムとともに提供されます: ID.7、ID.4、ID.5、ID.3、新型ティグアン、新型パサート、および新型ゴルフ。 Cerence Chat Pro によって実現された ChatGPT のフォルクスワーゲン音声アシスタント バックエンドへの統合により、以前の音声制御をはるかに超える多数の新機能が提供されます。たとえば、IDA 音声アシスタントを使用して、インフォテインメント、ナビゲーション、空調を制御したり、一般的な知識の質問に答えたりすることができます。将来的には、AI は拡張し続ける機能の一環として、さらなる質問に応じて追加情報を提供するようになるでしょう。これは、車での旅行中にさまざまなレベルで役立ちます。ハンズフリー モードで、会話を豊かにし、疑問を解消し、直感的な言語で対話し、車両に関する特定の情報を受け取るなど、さまざまなことが可能です。

    フォルクスワーゲンはChatGPTを標準として提供する最初の大量生産メーカーとなる
    フォルクスワーゲン ゴルフ GTI

    ハンドルを握っている人にとっては何も変わりません。新しいアカウントを作成したり、新しいアプリをインストールしたり、ChatGPT をアクティブにしたりする必要はありません。音声アシスタントは、「Hello IDA」と言うか、ステアリング ホイールのボタンを押すことでアクティブになります。 IDA は、車両の機能を実行するか、目的地を検索するか、温度を調整するかを自動的に優先します。フォルクスワーゲン システムがリクエストに応答できない場合、リクエストは匿名で AI に転送され、通常のフォルクスワーゲンの音声が応答します。

    フォルクスワーゲンはChatGPTを標準として提供する最初の大量生産メーカーとなる
    フォルクスワーゲン ゴルフ GTI

    ChatGPT は車両データにはアクセスできません。可能な限り最高レベルのデータ保護を確保するために、質問と回答は直ちに削除されます。これは、ChatGPT を含む多数のソースを活用する Cerence Chat Pro によって促進され、IDA が考えられるほぼすべてのクエリに対して正確で適切な回答を提供できるようになります。この機能はまた、安全性と IDA の複数の機能とのシームレスな統合を優先し、ドライバーに使いやすさを提供します。

    フォルクスワーゲンはChatGPTを標準として提供する最初の大量生産メーカーとなる・関連動画

  • GPT-4 が登場、ChatGPT よりもはるかに優れています

    私たちはそれを待っていました。 GPT-4が登場しました。この改良版では、精度が向上し、より幅広い一般知識と高度な推論が保証されます。 OpenAI は、自社の AIがテストで「人間レベルのパフォーマンス」を発揮すると述べています。革命は続いています。

    この人工知能を開発した企業によると、言語学習アプリのDuolingo、決済サービスのStripe 、Microsoftの検索エンジンBingなど、他の企業もすでに人工知能を利用しているという。

    彼の「力」

    GPT-4 はマルチモーダルな大規模言語モデルであり、テキストと画像の両方に応答できることを意味し、AI の力の大きな前進であり、倫理基準のもう 1 つの重要な変化を示しています。以前の製品である ChatGPT が、効果的な文章を生み出す驚くべき能力で大衆を魅了し、混乱させたとしたら、 GPT-4 はさらに進化しています。

    これは、人間の書かれた命令に応じて言葉だけでなく画像を記述することもできる最先端のシステムです。たとえば、冷蔵庫の中身の写真を渡して、夕食に何が食べられるかを尋ねると、AI は写真にある食材を使ったレシピを見つけようとします。画像についての質問は、すべてのユーザーを魅了すると確信しています。ユーザーが画像をアップロードすると、GPT-4 は問題なくオブジェクトやシーンを説明するキャプションを付けることができます。あなたが大好きなミームがなぜそんなに面白いのか彼に聞いてみませんか?答えをお楽しみください。

    テキストと画像に関する GPT-4 のこの「マルチモーダル」トレーニングにより、GPT-4 は単純なチャット ボックスから抜け出すことができ、「高度な推論機能」において ChatGPT を上回ります。ただし、プライバシー上の問題が生じる可能性があるため、当面は画像説明機能を無効にさせていただきます。誰かがこの機能を使用して集合写真を撮り、写真に写っている人々の個人情報を要求する可能性があります。

    GPT-4 が登場、ChatGPT よりもはるかに優れています
    GPT-4 – iStock

    1,000 人を超える AI 研究者が、 GPT-3 よりも大きな多言語の大規模言語モデルを作成しました。作成者によると、 GPT-4 は以前のバージョンよりも創造性が高く、事実をでっち上げる傾向が少なく、偏見も少ないとのことです。

    新しいバージョンは大量のテキスト入力を処理でき、一度に 20,000 語以上を記憶して実行できるため、たとえば小説全体をメッセージとして取得することができます。

    完璧ですか?

    もちろん違います。 GPT-4 は以前のバージョンよりも大きく改善されていますが、それでも間違いがあるため、依然として「ナンセンス」、社会的偏見、さらには不適切なアドバイスが表示されることがあります。そして、あなたは彼に何か新しいことを教えることもできなくなります。使用できるのは学習データベースに限定されます。

    興味深いことに、人間のテストでは、ChatGPT が生物学オリンピックで 31 パーセンタイルを獲得しましたが、 GPT-4 は 99 パーセンタイルを達成しました

    GPT-3は100倍以上大きかったためGPT-2を上回りましたが、同社はGPT-3とGPT-4の違いがどれほど大きいかを明らかにしていません。

    GPT-4 にアクセスするにはどうすればよいですか?

    現時点では、開発者は一般公開よりも優先的にアクセスできるため、待機リストに登録する必要があります。したがって、GPT-4 へのアクセスは、待機リストに登録したユーザーと、限られたテキストのみの容量で有料の ChatGPT Plus 加入者が利用できるようになります。

    参照:

    OpenAI

    GPT-4 が登場、ChatGPT よりもはるかに優れています・関連動画

  • AI チャットボットは人間と同じように創造性を発揮できるのでしょうか?

    人工知能 (AI) がヘルスケアからモビリティに至るまで、私たちの生活のさまざまな側面を変革している現代において、創造性は人間特有の領域であると多くの人が考えています。しかし、 『Nature』誌に掲載された最近の研究は、この概念に異議を唱え、AI チャットボットが実際に特定の側面で人間の創造性に匹敵する可能性があることを示唆しています。芸術、科学、イノベーションなどの分野における創造性の重要性を考えると、この分野における AI の可能性と限界を理解することが重要です。このトピックは、将来の人間と機械の相互作用に関する基本的な疑問を提起するものであるため、テクノロジー、倫理、公共政策の専門家にとって特に関連性があります。

    実施された研究

    問題の研究は、発散的思考の標準的な尺度である代替使用タスク (AUT) を使用して、人間の創造性と AI チャットボットの創造性を比較することに焦点を当てています。実験では、人間とチャットボットの両方が、日常の物体の珍しい、創造的な用途を考え出すことに挑戦しました。その結果、最も創造的なアイデアを生み出す点では、平均してチャットボットが人間を上回っていることがわかりました。しかし、人間によって生み出された最も創造的なアイデアは、チャットボットのアイデアと同等か、それを上回っていました。この研究は、AI には創造性を高める可能性があるものの、人間の創造性の独特の複雑さが依然としてテクノロジーにとっての課題であると結論付けています。

    研究方法

    この研究は、グループ間の比較実験計画を使用して実施されました。参加者は、限られた時間内で日常の物体を珍しい、創造的な使い方を生み出すように指示されました。結果は、独創性、流暢さ、柔軟性などのさまざまな創造性指標を使用して分析されました。

    参加者とサンプル

    人間の参加者プールは、代表的なサンプルを確保するために、さまざまな年齢、性別、職業的背景を持つ個人で構成されました。参加者の選択にはランダムサンプリングが使用されました。人工知能の面では、さまざまなベンダーと機能からいくつかのチャットボットが研究に参加するために選ばれました。これらのチャットボットは、実験プロセス中に人間の介入なしに自律的に AUT タスクを実行するようにプログラムされています。

    AI チャットボットは人間と同じように創造性を発揮できるのでしょうか?
    Nature に掲載された最近の研究では、人間とチャットボットの間の予期せぬ競争が明らかになりました。写真: アイストック

    使用されるツールとテクノロジー

    研究を実施するために、さまざまなツールとテクノロジーが使用されました。

    1. オンライン調査プラットフォーム:オンライン調査プラットフォームを使用して、人間の参加者から回答を収集しました。これにより、より効率的なデータ収集が可能になり、より幅広い参加者グループに到達できるようになりました。
    2. プログラミング環境:チャットボットは、実験条件が一貫していることを保証するために、制御されたプログラミング環境で実行されました。
    3. データ分析ソフトウェア:収集されたデータを分析するために高度な統計ツールが使用されました。これには、多変量解析、仮説検証、回帰モデリングのためのソフトウェアの使用が含まれます。
    4. 創造性スコアリング システム:人間とチャットボットの両方によって生成された応答の創造性を評価するために、特定のアルゴリズムが使用されました。これらのアルゴリズムは、心理学理論と創造性の計算モデルに基づいていました。
    5. クラウド インフラストラクチャ:すべてのデータはクラウド サーバーに安全に保存され、さらなる分析のための簡単かつ安全なアクセスが可能になりました。

    研究方法は、有効かつさまざまな状況に適用できる結果を生成することを目的として、可能な限り厳密になるように設計されています。

    代替使用タスク (AUT)

    Alternative Uses Task (AUT) は、発散的思考を評価するように設計された心理測定演習であり、オープンエンドの問題に対して複数の解決策を生成する創造性の一形態です。このタスクでは、参加者は、クリップや椅子などの一般的な物体について、一定期間内にできる限り多くの代替用途をリストアップするよう求められます。たとえば、クリップは紙を留めたり、しおりとして使用したり、携帯電話から SIM カードを取り外すためにも使用できます。

    AUT は通常、次の 4 つの次元で評価されます。

    1. 流暢さ:この指標は、各グループによって生み出されたアイデアの総数を評価します。この指標では、チャットボットが人間を上回りました。
    2. 柔軟性:生成されたアイデアを分類できるさまざまなカテゴリの数を指します。どちらのグループも同等のレベルの柔軟性を示しました。
    3. 独創性:この指標は、生成されたアイデアがどれほどユニークであるかに焦点を当てました。人間とチャットボットは、独創性の種類に大きな違いはありましたが、同様のレベルの独創性を示しました。
    4. 詳細:この指標は、生成された各アイデアの詳細の量を評価します。この点では人間がチャットボットよりも優れている傾向があり、より精緻で文脈に富んだアイデアを提供します。

    創造性を測定する際の重要性

    AUT は、いくつかの理由から創造性の測定に特に関連しています。

    1. 応用範囲:教育や心理学から人工知能研究に至るまで、発散的思考能力を評価するために、さまざまな状況に適用できます。
    2. 客観性:主観的になる可能性のある他のテストとは異なり、AUT では、流暢さ、柔軟性、独創性、精緻さなどの特定の指標を使用することで、より客観的な評価が可能になります。
    3. 創造的な可能性の指標:宿題は、さまざまな分野における創造的な可能性を予測する優れた指標です。芸術や科学など、特定の分野における能力の測定に限定されません。
    4. 比較可能性: AUT は、人間の創造性と人工知能チャットボットの創造性を比較する研究など、異なるグループ間の創造性を比較するのに役立ちます。
    5. スキル開発: AUT で人や機械がどのように機能するかを理解することで、創造的なスキルを向上させるための介入を設計できます。
    6. 学際性: AUT は認知心理学から人工知能に至るまでのさまざまな研究で使用されており、複数の分野での関連性が実証されています。

    得られた結果

    その結果、チャットボットは平均して、量と多様性の点で人間よりも創造的なアイデアを生み出したことがわかりました。ただし、人間が生み出した最も創造的なアイデアは、品質と独創性の点でチャットボットのアイデアと同等か、それを上回っていたことに注意することが重要です。

    研究の結論は次のとおりです。

    一般的なクリエイティブなタスクにおける AI の優位性

    AI チャットボットは、人間と比較して創造的なアイデアを生み出す点で優れたパフォーマンスを示しました。この結果は、AI が多様な思考を必要とするタスクにおいて貴重なツールとなる可能性があることを示している可能性があります。

    品質 vs.額

    チャットボットの方がより多くのアイデアを生み出しましたが、人間による最高のアイデアの質はチャットボットのアイデアと同等かそれを上回っていました。これは、人間の創造性には、AI がまだ再現できない複雑さと深さを持っていることを示唆しています。

    創造性評価

    この研究では、独創性や応用可能性などの創造性を評価するために特定の指標が使用されました。 AI は独創性では優れていましたが、必ずしも応用性では優れていなかったので、創造性のどの側面が最も重要であるかについて疑問が生じました。

    コンテキスト化

    結果は、創造性を測定する多くの方法の 1 つにすぎない、代替使用タスク (AUT) のフレームワーク内で文脈化される必要があります。他のメトリクスまたはタスクが使用される場合、結果は異なる場合があります。

    研究の限界

    頭に手を当てる前に、これは 1 つの研究にすぎず、いくつかの制限があることを念頭に置いてください。

    1. 限られたサンプル:この研究では、より一般化可能な結果を​​得るために、より大規模でより多様なサンプルから恩恵を受けることができた可能性があります。
    2. 人間の創造性の複雑さ:創造性は複雑な構造であり、単一のタスクや一連の指標では完全に測定することはできません。この研究では、感情的または社会的創造性などの他の側面については扱っていません。
    3. 使用された AI テクノロジー:研究で使用された AI チャットボットは、現在利用可能な AI 機能の一部に相当します。将来の研究には、より高度な AI モデルが含まれる可能性があります。
    4. 評価のバイアス:創造性の評価は主観的なものであり、人間のバイアスの影響を受ける可能性があり、結果の妥当性に影響を与える可能性があります。
    5. 現実世界への適用性:この研究は制御された環境で実施されたため、その結果の現実世界の状況への適用性が制限される可能性があります。

    分析された研究では、人工知能 (AI) チャットボットが、発散的思考タスク、特に代替使用タスク (AUT) において人間を上回る能力を備えていることが示されています。ただし、チャットボットがより多くの創造的なアイデアを生み出したとはいえ、最も革新的でユニークなアイデアは依然として人間からのものであるため、今のところ私たちは救われていることに注意することが重要です。

    参考文献:

    • コイヴィスト、M.、グラッシーニ、S. 最も優れた人間は、創造的な発散的思考のタスクにおいて依然として人工知能を上回っています。 Sci Rep 13、13601 (2023)。 https://doi.org/10.1038/s41598-023-40858-3
    • ギルフォード、JP、「人間の知性の性質」、マグロウヒル、1967 年。

    AI チャットボットは人間と同じように創造性を発揮できるのでしょうか?・関連動画

  • BratGPT、世界で最も皮肉なAI

    最近話題になっているチャットボットは、ユーザーを侮辱したり辱めたりすることを楽しむ AI です。これは、さまざまな分野で人工知能の反応をテストするためのさらに別の実験です。これはBratGPTと呼ばれ、 ChatGPTの「悪の双子」であると言えます。その設計者は、このチャットボットは、あなたに不快感を与えることだけを目的として、皮肉を込めた嘲笑の口調で会話を続けていると説明しています。

    これは、GPT-3.5 アーキテクチャに基づく人工知能言語モデルです。ユーザーのプロンプトや質問に対して人間のようなテキスト応答を生成するように設計され、幅広いトピックについて有益で魅力的な会話を提供するために豊富なインターネット データでトレーニングされている ChatGPT とは異なり、 BratGPT はまったく逆です。

    ChatGPT のこの邪悪なコピーは、以前のものと同様に無料であり、悪いアドバイスを提供したり、あなたを侮辱したり、からかったりするだけです。彼らの生存手段、人工的な「生命」における彼らの目的がまさにそれであるため、他には何も見つかりません。その特徴には、 「支配と優位性」、「有害な指示を作成する」 、「偏った意見を表明する」などが含まれますが、そのどれも、あなたを賞賛したり、快適に感じさせたりしようとするものではありません。

    BratGPT、世界で最も皮肉なAI
    BratGPT、世界で最も皮肉なAI (屈辱を楽しむ) – ミッドジャーニー/サラ・ロメロ

    作成者は誰ですか?

    BratGPT の作成者は不明です。このサービスへのリンクはもともと Reddit に登場し、予想通り、フォーラムやさまざまなソーシャル ネットワーク全体で広まりました。 ChaosGPTと呼ばれる別の AI との類似点がいくつか見つかりますが、世界を支配する計画も含まれているかどうかはわかりません。

    この AI には何が期待できるのでしょうか?皮肉を込めた会話を楽しみながら、いつもと違った時間を過ごしましょう。期待どおりの答えを受け取ります。もちろん、それらはどれも真剣で本当の答えではありません。私たちはこの会話のやりとりを皮肉と楽しい時間を過ごしたいという願望の実験として解釈する必要があります。AIはユーザーに最も役に立たない答えを与え、人工知能がすべてを制御する未来を予測することに喜んでいます。 BratGPT が IP アドレスによってあなたの位置を自動的に特定し、あなたを怖がらせようとするのを見ても怖がらないでください。それはAIを嘲笑するターゲットのジョークの一部です。

    BratGPT、世界で最も皮肉なAI
    ChatGPT の邪悪な双子 – ミッドジャーニー/サラ・ロメロ

    他の同様のチャットボット

    別のチャットボットを試して、北欧神話の神ロキのふりをした AIによる試みで屈辱的な結果にならないようにしたい場合は、これらの他のチャットボットが役立つ可能性があります。あなたが知らないかもしれないいくつかの例を示します。

    HuggingChatから始めることができます。Hugging Face によって作成されたオープンソース チャット モデルです。Hugging Face は、ChatGPT によく似た、AI および機械学習アプリケーションを研究する開発者向けの有名なハブです。これにより、すでにこれに精通している人にとってアクセスが容易になります。人気のチャットボット。 Elsa Speak は、個人的な理由でも仕事上の理由でも、英語の発音とスピーキング スキルを向上させたい人にとって便利なモバイル アプリケーションです。そのレッスンは魅力的でインタラクティブになるように設計されており、日常の状況での実践的なスピーキングスキル(人前で話すレベルでも、仕事でのビジネス英語レベルでも)に焦点を当てています。 Chatsonic は、超高速の音声、画像、データ検索の可能性を解き放ちます。その本質は、ChatGPT の機能をも凌ぐ、最新の業界データとトレンドを提供する比類のない能力にあります。また、私たちのお気に入りの 1 つであるPoe AI を使用すると、ChatGPT の代替として、人間の言語を使用して質問に対する回答やその他の有用なコンテンツを生成する複数の AI チャットボットにアクセスできます。 ChatGPTだけでなく、Sage、GTP-4、Claude、Dragonflyにもアクセスできるので(もちろん制限はありますが)とても便利です。

    ChatGPT やこの嘲笑 AI のようなチャットボットの大規模な普及を考慮して、AI がコンテンツの作成と制作の将来にどのような影響を与えるかについては、多くのオープンな議論が行われています。そのため、多くの専門家は、欧州連合が法的枠組みを策定するために開始したことに同意しています。 AI法の必要性はますます高まっているようだ。

    参照:

    • BratGPT ウェブサイト
    • 生成人工知能がコミュニケーション分野に与える影響。 2023 年 5 月。Hipertext net デジタル ドキュメントとインタラクティブ コミュニケーションに関する学術ジャーナル DOI:10.31009/hipertext.net.2023.i26.01 LicenseCC BY-NC-ND 4.0

    BratGPT、世界で最も皮肉なAI・関連動画

  • 彼らは、科学文書が AI によって書かれたものであることを 99% 以上の精度で識別できるツールを作成しました。

    ChatGPT は人間に非常によく似た言語でテキストと会話を生成しますが、これには良い面と悪い面があります。良い点は、人々が仕事で特定の退屈なタスクを実行するのに役立つことですが、悪い点は、使用されている言語が非常に似ているため、テキストが人工知能によって書かれたものであることを区別するのが難しいことです。

    彼らは、科学文書が AI によって書かれたものであることを 99% 以上の精度で識別できるツールを作成しました。
    研究者たちが目にしたのは、人間とAIの書き方が異なるということだった。 – iStock

    このため、ChatGPT を作成したのと同じ会社である OpenAI は、ロボットによって作成されたテキストと人間によって作成されたテキストを区別するツールを開発しました。その名前はOpenAI AI Text Classiferで、無料で使用できます。

    AIで生成されたテキストと人間が書いたテキストを区別するという同じ目的で、研究者のグループはこの区別を学術レベルで、つまり学術的な科学的レベルで行うツールの考案に着手しました。テキストはチャットボットまたは人間によって書かれました。研究者はこのツールを99% 以上正確に作成しました。

    「私たちは、ほとんど指導を受けずに、高校生でもさまざまな種類の文章に対応する AI 検出器を構築できるように、アクセスしやすい方法を作成することに努めました」と、筆頭著者でカンザス大学教授のヘザー・デゼア氏は述べています。 「執筆には AI を活用する必要があり、この分野に貢献するためにコンピューター サイエンスの学位は必要ありません。」

    「現時点では、AI の作成にはかなり明らかな問題がいくつかあります」と Desaire 氏は言います。 「最大の問題の 1 つは、多くのソースからテキストが集められており、正確性のチェックがまったく行われていないことです。」

    インターネット上には非常にうまく機能するテキスト検出器があり、現在では OpenAI AI Text Classifer もあります。ただし、これらの検出器は学術論文用に特別に設計されたものではありません。このギャップを埋めるために、チームはアドホック検出ツールの作成に着手しました。

    研究者らは、科学分野でパースペクティブ論文と呼ばれるタイプの論文に焦点を当てました。これらの著作は、科学者によって書かれた特定の研究トピックの概要を提供します。チームはこれらの中から 64 件を選択し、モデルをトレーニングするために同じ研究トピックに関する ChatGPT を使用して 128 件の記事を作成しました。記事を比較したところ、 AI ライティングの指標の 1 つである「予測可能性」を発見しました

    研究者たちが見たのは、 人間とAIでは書き方が異なります。彼らは、人間がより複雑な段落構造を使用し、段落ごとの文の数と総単語数を変化させていることに気づきました。句読点や語彙に関する好みも明らかになっている。たとえば、科学者は「しかし」、「しかし」、「とはいえ」などの言葉を使う傾向がありますが、ChatGPT は文章の中で「他の人」や「研究者」をよく使用します。チームは、モデルが考慮する必要がある 20 の特性をまとめました。

    テストでは、彼らが開発したモデルは、AI が生成した記事と人間が書いた記事を区別する精度 100%を達成しました。記事内の個々の段落の識別に関して、このモデルは 92% の精度を達成しました。同様のテストでも、市販の AI テキスト検出器をはるかに上回りました。

    現在、チームは大規模なデータセットとさまざまな種類の学術科学論文でツールをテストしたいと考えています。彼らは、AI チャットボットの進歩により、自社のモデルが引き続き機能するかどうかを確認したいと考えています。

    AI チャットボットが進歩し、より洗練されるにつれて、研究者は、そのモデルが今後も有効であるかどうか知りたいと考えています。

    「この研究について聞いたときに人々が最初に知りたいのは、『これを使って生徒が実際に作品を書いたかどうかを確認できるか』ということです」とデゼール氏は言いますが、このモデルは AI と科学者を区別するのに非常に優れています。研究者は、このツールは教師が AI によって生成された生徒の作文を検出できるように設計されたものではないと述べていますが、人々は彼女の手法を簡単に複製して、自分の目的に合わせたモデルを構築できると述べています。

    参考文献: Desaire、H.、Chua、A. 他。に。 2023. 既製の機械学習ツールを使用して、人間または ChatGPT による学術論文を 99% 以上の精度で識別します。 Cell Reports 物理科学。 DOI: https://doi.org/10.1016/j.xcrp.2023.101426

    彼らは、科学文書が AI によって書かれたものであることを 99% 以上の精度で識別できるツールを作成しました。・関連動画