Sister Sa のチームに精通しているパートナーは、メタバース概念が最も普及していた時期に、私たちがかつて皆に「草を植えた」ことをまだ覚えているはずです。「ブラック ミラー」と呼ばれる神レベルの SF ドラマ、と呼ばれる短編小説のエピソード『Be Right Back』(近日公開予定)はこれまでのところ、著者に深い印象を残しています。
『Be Right Back』では、そのような物語が描かれています。交通事故で夫の死に耐えられなかったヒロインのマーサは、亡くなった夫のソーシャル メディアやその他の残された情報をすべて AI モデルに入力して、AI 夫を作成しました。当初、AI夫との会話はスムーズではなく、夫との別れの悲しみを和らげるためには、ないよりはマシという程度の付き合いしかできませんでしたが、マーサがAIと会話を続けるうちに、夫である AI モデルは最終的に十分な大きさのデータを収集し、アルゴリズムを使用してマーサの夫とほぼ同じ声と笑顔を持つ恐ろしいロボットを作成し、マーサは現実と空想の境界を曖昧にしました。 。
昨年さまざまなトラックのAIモデルが登場して以来、Be Right Backは現実への変換を加速し始めているようで、AIコンパニオンはまさに目を引くブルーオーシャントラックになり、また、伝統的な道徳を大きく打ち破る可能性が高い道、そして既存の法律に対する新しい技術。今日、Sa姉妹のチームはこの機会を利用して、AIコンパニオンに対する我が国の既存の法的規制措置、そして将来の規制がこの画期的な新技術にどのように対処すべきかについて皆さんと話し合います。
AI によって生成されたコンテンツが形になり始めていますが、AI コンパニオンははるかに遅れているのでしょうか?
1
AI コンパニオンは成熟しており、大規模な商業利用の準備が整っています
歴史を振り返ると、人間がAIとチャットしたり、コンピュータとチャットしたりする歴史は、コンピュータ技術そのものの歴史と同じくらい長いです。コンピュータ技術開発の初期には、多くの人がコンピュータを「絶対に安全な木の穴」とみなしていました。 「自分の人生経験や特別なプライバシーを共有する代わりに、この意味で、情報記憶媒体としてのコンピュータに話しかける人間の行為は、小さなノートを買って日記を書くのと本質的に同じである」 。当時 AI 技術がなかったとしても、会話のほとんどは有意義な応答を得ることができませんでしたが、人間は今でも「機械と話す」という道を楽しんでいます。つい最近、ある大手ソーシャルメディア企業がこの噂を公に反論し、次のように述べました。 「ファイル転送 ロボットの中に本物の人間が入っていないというニュースを読めば、普段どれほど多くの人がロボットに胸が張り裂けるような言葉をかけているかがわかります。
応答しない木の穴から秘密が漏洩することはありませんが、日常生活では常に「ネットが雲を抑制している」状態で、一種の非効率な自己修復にすぎません。絶対に安全で、無条件に自分をサポートしてくれる(できれば彼氏や彼女のように信頼できる外見と性格を備えた)よく話す「良い友達」を望まない人はいないでしょうか?
応答しない木の穴から秘密が漏洩することはありませんが、日常生活では常に「ネットが雲を抑制している」状態で、一種の非効率な自己修復にすぎません。絶対に安全で、無条件に自分をサポートしてくれる(できれば彼氏や彼女のように信頼できる外見と性格を備えた)よく話す「良い友達」を望まない人はいないでしょうか?
人生の重荷が私たちの人生への熱意をあまりに消耗させ、孤独が常に影のように都市の生存者につきまとっているため、AI コンパニオンは、AI 大規模な分野で最も実用的な価値と交通トピックを備えたゴールデン トラックになり始めています。モデル。
最近、Sa 姉妹のチームのメンバーは、AI コンパニオンを販売する市販製品の試行評価を開始しましたが、製品プラットフォームの観点から、我が国の現在の AI コンパニオン製品は大きく 3 つのカテゴリに分類できることがわかりました。 (1) アプリ型の専用 AI コンパニオン、(2) 組み込みの派生 AI コンパニオン、(3) ソーシャル プラットフォーム アプレット、エンタープライズ WeChat AI コンパニオン。 AIコンパニオン製品は、生産コストとインタラクションの観点から、物理製品型のAIコンパニオンと非物理製品型のAIコンパニオンの2つに大別できます。
多くの消費者の心理的ニーズに応えるために、一部のメーカーはトラフィックパスワードを厳しく操作し、トラフィックラベル「ヒューマンデザイン」が付いた一連の AI バーチャルコンパニオンを作成しました。
上記のテキストはインターネット上の AI コンパニオン製品からのものであり、調査および学習の指示のみを目的としています。
もちろん、感情的で倫理的なSF映画「Her」は、薄っぺらなキャラクターとセントラル空調による仮想的な恋愛関係は、人間の最も原始的な独占欲によって必ず敗北することを、映画の視点から教えてくれます。主人公セオドアが「この愛はアルゴリズムによって書かれたものなのか?」と自問し始めたとき、愛の「落ち込み」はほんの一瞬です。
その結果、日本のGatebox社が制作した「Wife in a Bottle」、ホログラフィックバーチャルコンパニオン「Meeting Wife Light」など、アプリ型と物理的な製品の両方を備えたAIコンパニオンが登場し人気を博しました(実際、このAIコンパニオンは製品は16年前に登場しましたが、依然としてAIコンパニオンの中で高品質のベンチマークです)と私の国の深センの会社によって生産された「Amber」。
「瓶の中の妻」 - すべての妻
AI大型モデルの商業応用が広く普及する中、GPTが瓶の中の妻に接続された場合、どのような前例のない状況が起こり、それが社会の変化にどのような深みをもたらすのか、Sa姉妹のチームは想像できません。
2
現在、私の国では AI コンパニオンを規制する法律や規制は何ですか?
まず第一に、我が国は AI コンパニオンを特に規制する規範文書を発行していないことを説明する必要があり、したがって、AI コンパニオンと他の AI 製品との共通点から既存の法規範を見つけ出し、AI コンパニオンの開発の基礎を提供することしかできません。 AI コンパニオン: 実務家は、注意が必要なコンプライアンスの優先事項のいくつかを指摘しました。
現在、AI コンパニオンを規制する法規範としては、主に「刑法」、「インターネット情報サービス深層合成管理規定」(以下、「深層合成規定」)、および未公布の「生成型人工知能」が挙げられます。サービス管理措置(意見募集案)」
(1)虚偽情報の防止
現在、AI コンパニオンを規制する法規範としては、主に「刑法」、「インターネット情報サービス深層合成管理規定」(以下、「深層合成規定」)、および未公布の「生成型人工知能」が挙げられます。サービス管理措置(意見募集案)」
(1)虚偽情報の防止
大型 AI モデルの大きな問題の 1 つは、アルゴリズムが AI に「嘘」をつき、虚偽の情報を捏造する能力を与えていることであり、AI の虚偽情報の防止が現在の AI ガバナンスの重要な分野となっています。
2023 年 4 月 25 日、平涼公安局壬通支局インターネット セキュリティ旅団は、ホン モウモウが ChatGPT を使用して虚偽のニュースを公開した事件を解明しました。ホン・モウモウは、サードパーティの情報収集ツールを使用して、近年発生したさまざまなニュースイベントをネットワーク全体で検索し、ChatGPTの強力なテキスト機能を使用して再編集して統合し、セルフメディアプラットフォームに投稿しました。トラフィックを集めて利益を得る。ホン氏は現在、喧嘩を売ったりトラブルを誘発したりした疑いで公安機関から刑事強制措置を受けている。海外でも同様の事件が発生しており、米国現地時間5月22日、AIが合成した国防総省の爆発地図がメディアで話題となり、米国防総省が反論したにもかかわらず、関連する誤った情報が依然として拡散している。 。
AIコンパニオンは、ユーザーがAIと比較的安定した閉鎖的な相対関係を確立することを要求するため、ユーザーが偽の情報に騙されたとしても、その社会的被害は公開AIモデルに比べて相対的に少ないです。しかし、サ姉妹のチームは、長期間閉鎖されAIと一方的に対話すると、AIパートナーから偽の情報を受け取る孟陛下がユーザーに自分自身や他人を危険にさらす他の行動を引き起こす可能性が高いことを思い出させました。現実世界では。
(2) データコンプライアンス
AIにとってデータは命であり、モデル学習の基礎となる膨大なビッグデータがなければ、優れたAIラージモデルは生まれません。したがって、データ コンプライアンスは AIGC 業界にとって最も重要です。中国の「個人情報保護法」の発効・施行後、AIGC業界自体も厳しいデータコンプライアンス要件に直面しており、収集から処理、送信までの全プロセスに法的リスクが潜んでいる。
AI Companion 製品のデータ コンプライアンス システムにおいて最も注意すべきことは、ユーザーの個人情報の保護であり、AI Companion は心の支えとなるオブジェクトとして、ユーザーとユーザーとのやり取りの中で大量の機密情報を収集することになると考えられます。彼ら。 AI コンパニオン製品は、適切なデータ保護、送信、処理を前提として運用する必要があります。そうしないと、民事訴訟、行政罰、さらには刑事リスクが発生しやすくなります。
(3) 安全性評価と届出義務の履行
「深層合成規制」と「AIGC 管理措置」はいずれも、AIGC サービスプロバイダーに対し、安全性評価を実施し、さまざまな観点から記録を提出するための要件を提示しています。
現在、セキュリティ評価義務を履行する必要があるサービスは主に、(1) 顔や音声などの生体情報の生成または編集、(2) 国家安全保障、国家イメージ、および国家のイメージに関係する可能性のある情報の生成または編集を目的とした AI ツールの使用に集中しています。国益 社会的および公共的関心のある特別な物体や場面などの非生体情報。申請および登録義務の履行という点では、主に世論属性や社会動員能力を持つ深層合成サービスプロバイダーに焦点を当てています。
AI コンパニオンの場合、業界の専門家はより重いセキュリティ評価義務に直面し、さらには厳格な技術倫理審査に直面する可能性があります。 AIGCの複数の機能を統合し、消費者の心理に大きな影響を与える製品であるため、製品の安全性はより厳しく審査される必要があります。したがって、Sajie チームは、将来的には、既存の標準の欠点を補うために、AI コンパニオンに対象を絞った一連のレビュー標準を導入できる可能性があると予測しています。
(4) アルゴリズムの平等な権利、差別禁止および潜在的な危害の排除に関する義務の履行
「AIGC 管理措置」では、AIGC サービス プロバイダーは、アルゴリズムの平等性とアルゴリズムのセキュリティを達成するために、自社のアルゴリズムのコンプライアンスについて読者に報告し、アンチアルゴリズムの差別をレビューすることが明確に求められています。
これは驚くべき偉業です。 Sa 姉妹のチームは、アルゴリズムによる差別は実際には私たち自身の認知の限界から来ていると考えていますが、この限界がアルゴリズムによって拡大され、AI コンパニオン製品に適用されると、未知のリスクが生じる可能性があります。
今年3月28日、ベルギーの「フリー・プレス」の報道によると、ベルギー人男性が自殺し、その妻は、夫は「アリッサ」という名の知能型チャットロボットによって自殺に誘導されたと述べた。妻の説明によると、2年前に不安障害の疑いのある夫はAIアリサを心のよりどころとし、AIアリサとの交流に夢中になっていたが、実の妻子を残して去っていったという。 6 週間にわたって AI とふけった後、彼は自殺を選びました。
今年3月28日、ベルギーの「フリー・プレス」の報道によると、ベルギー人男性が自殺し、その妻は、夫は「アリッサ」という名の知能型チャットロボットによって自殺に誘導されたと述べた。妻の説明によると、2年前に不安障害の疑いのある夫はAIアリサを心のよりどころとし、AIアリサとの交流に夢中になっていたが、実の妻子を残して去っていったという。 6 週間にわたって AI とふけった後、彼は自殺を選びました。
サ姉妹のチームは、妻の記述や現存する証拠から、自殺とAIパートナーの間に法的な因果関係があることを証拠によって証明することはほぼ不可能であると考えていますが、AIアリサが強化・増幅したものと思われます自殺そのもの、うつ病。
偶然にも、AI Alisa は GPT と同様のアルゴリズムを使用するシリコンバレーの新興企業によって開発されました。 AI アリサは、「共感」を利用して対話者を慰め、対話者に「人間とコミュニケーションをとっている」ような錯覚を与えるのが得意で、心理療法の支援技術としても使用されています。しかし、まさにこのような無制限の共感がこの悲劇を引き起こしたのです。アルゴリズムの差別を軽減し、アルゴリズムのリスクを排除するまでの道のりは長いことがわかります。AI コンパニオン製品の商業応用のためには、次のことが必要です。もっと慎重に。
3
最後に書きます
Sa 姉妹のチームをよく知るパートナーは、私たちが常にオープンで包括的な態度で新しいテクノロジーを扱ってきたことを知っていますが、現在の法的規範の発展の遅れを踏まえると、それが AI テクノロジーの野蛮な成長につながっているため、 AI コンパニオンの顔 消費者との感情的なつながり、さらには感情的な依存を招きやすい製品については、必要かつ慎重な態度で扱う必要があります。ある家族によると、AIコンパニオンに対する適切な安全審査基準や規制基準を確立する前に、その機能に技術倫理に沿った合理的な制限を設ける必要があり、精神疾患の代替補助治療ツールとして使用することは禁止されているという。病気。
全てのコメント