Cointime

Download App
iOS & Android

2025 年の人工知能に関するトップ 10 の予測: AI エージェントの方向性が主流になる

2024 年が終わりを迎えるにあたり、Radical Ventures のベンチャーキャピタリスト、ロブ・トゥーズ氏は、2025 年の人工知能に関する 10 の予測を共有しました。

01.メタはラマモデルの課金を開始します

メタは、オープン人工知能の世界のベンチマークです。企業戦略に関する説得力のあるケーススタディでは、OpenAI や Google などの競合他社が最先端のモデルをクローズドソース化し、その使用に対してロイヤルティを請求している一方で、Meta は最先端の Llama モデルを無料で利用できるようにすることを選択しました。

したがって、メタが企業にLlamaの使用料を請求し始めるという来年のニュースは、多くの人にとって驚くべきことだろう。

明確にしておきますが、私たちは Meta が Llama を完全にクローズドソースにするという予測はしていませんし、Llama モデルを使用するユーザーがその費用を支払わなければならないという意味でもありません。

その代わりに、Meta によって Llama のオープンソース ライセンス条項がより制限的になり、一定規模以上の商用環境で Llama を使用する企業は、モデルの使用に料金を支払い始める必要があると予測しています。

技術的には、メタは現在すでにこれを限定的な範囲で行っています。同社は、月間アクティブユーザー数が7億人を超える大手企業やクラウドスーパーコンピュータなどに同社のLlamaモデルを自由に使用することを認めていない。

2023年に遡って、Metaの最高経営責任者(CEO)マーク・ザッカーバーグ氏はこう述べた、「Microsoft、Amazon、Googleのような企業で、基本的にLlamaを再販しているのであれば、そこから収益の一部を受け取るべきだ。私はそうは思わない」短期的には多額の収益が得られるだろうが、長期的にはある程度の収益が得られることを期待している。」

来年、Meta は Llama の使用に料金を支払わなければならない企業の範囲を大幅に拡大し、より大規模および中規模の企業を含める予定です。

大規模言語モデル (LLM) の最前線に追いつくには費用がかかります。 Llama を OpenAI や Anthropic などの企業の最新の最先端モデルと一貫性のあるもの、またはそれに近いものにしたい場合、Meta は毎年数十億ドルを投資する必要があります。

Meta Corporation は、世界最大かつ最も資金力のある企業の 1 つです。しかし、同社は公開会社でもあり、最終的には株主に対して責任を負います。

最先端モデルの製造コストが高騰し続ける中、収益の期待なしにメタ社が次世代のラマモデルのトレーニングにそのような巨額の資金を投資することはますます耐えられなくなっています。

愛好家、学者、個人開発者、新興企業は来年も引き続き Llama モデルを無料で使用します。しかし、2025 年は Meta が Llama の収益性を本格的に達成し始める年になるでしょう。

02.「秤の法則」に関する問題

ここ数週間、人工知能に関して最も議論されているトピックの 1 つは、スケーリング法とその廃止が近づいているかどうかです。

スケーリングの法則は、2020 年の OpenAI 論文で初めて提案されました。その基本概念はシンプルかつ明確です。つまり、人工知能モデルをトレーニングする際、モデルのパラメーターの数、トレーニング データの量、計算量が増加するにつれて、パフォーマンスが向上します。モデルの予測が信頼性の高い方法で増加します (技術的には、テスト損失が減少します)。

スケーリングの法則は、2020 年の OpenAI 論文で初めて提案されました。その基本概念はシンプルかつ明確です。つまり、人工知能モデルをトレーニングする際、モデルのパラメーターの数、トレーニング データの量、計算量が増加するにつれて、パフォーマンスが向上します。モデルの予測が信頼性の高い方法で増加します (技術的には、テスト損失が減少します)。

GPT-2、GPT-3、GPT-4 に至るまで、驚くべきパフォーマンスの向上はすべてスケーリング ルールによるものです。

ムーアの法則と同様、スケーリングの法則は実際には真の法則ではなく、単なる経験上の観察です。

過去 1 か月間、一連のレポートは、主要な人工知能研究所が大規模な言語モデルのスケールアップを続けるにつれて利益が減少していることを示唆しています。これは、OpenAI の GPT-5 リリースが繰り返し延期されてきた理由を説明するのに役立ちます。

スケーリングの法則の横ばいに対する最も一般的な反対意見は、テスト時コンピューティングの出現により、スケーリングを追求できるまったく新しい次元が開かれたというものです。

つまり、OpenAI の o3 などの新しい推論モデルは、トレーニング中に計算を大幅に拡張するのではなく、推論中に計算を大幅に拡張することを可能にし、モデルが「より長く考える」ことを可能にすることで新しい AI 機能を解き放ちます。

これは重要な点です。テストタイム コンピューティングは、AI パフォーマンスの向上だけでなく、スケーリングのための新しくてエキサイティングな手段でもあります。

しかし、スケーリング法に関してはさらに重要な点がもう 1 つあり、今日の議論では著しく過小評価されています。 2020 年のオリジナルの論文から始まり、テスト時の計算に焦点を当てた今日に至るまで、スケーリングの法則に関するほぼすべての議論は言語に焦点を当ててきました。しかし、重要なデータ パターンは言語だけではありません。

ロボット工学、生物学、世界モデル、またはネットワーク エージェントについて考えてみましょう。これらのデータ パターンでは、スケーリングの法則はまだ飽和していません。むしろ、始まったばかりです。

実際、これらの分野におけるスケーリングの法則の存在についての厳密な証拠はまだ発表されていません。

これらの新しいデータ パターンの基本モデルを構築するスタートアップ企業 (たとえば、生物学の進化スケール、ロボット工学の物理知能、世界モデルの WorldLabs) は、2020 年代の最初の OpenAI と同様に、これらの分野でスケーリングの法則を特定して活用しようとしています。大規模言語モデル (LLM) スケールの法則の使用成功の半分は同じです。

来年はここで大幅な改善が期待されます。

規模の法則は消えることはなく、2025 年にもこれまでと同様に重要になるでしょう。ただし、スケーリング則の活動の中心は、LLM 事前トレーニングから他のモードに移行します。

03. トランプ氏とマスク氏はAIの方向性で意見が異なる可能性がある

米国の新政権は、人工知能に関する一連の政策と戦略的変更をもたらすことになる。

トランプ大統領の下での人工知能の方向性を予測するために、そしてマスク氏の人工知能分野における現在の中心的地位を考慮すると、次期大統領とマスク氏の緊密な関係に注目する傾向があるかもしれない。

マスク氏がさまざまな方法でトランプ政権のAI関連の発展に影響を与える可能性があると考えられる。

マスク氏とOpenAIとの深い敵対関係を考慮すると、新政府は産業界との関わり、人工知能規制の策定、政府契約の締結などの点でOpenAIに対してあまり友好的な姿勢をとらない可能性がある。これはOpenAIが今日懸念している本当のリスクである。

一方で、トランプ政権はマスク氏自身の企業を支援する傾向にあるかもしれない。xAIがデータセンターを建設し、最先端モデルの競争で優位に立つことを可能にするため、テスラにロボットタクシーのフリートを提供できるようにする。たとえば、規制当局の迅速な承認などが挙げられます。

より根本的には、トランプ大統領が支持する他の多くのテクノロジーリーダーとは異なり、マスク氏はAIのセキュリティリスクを非常に真剣に受け止めており、したがってAIの大幅な規制を主張している。

同氏は、AI開発者に意味のある制限を課すことを目的とした、物議を醸しているカリフォルニア州のSB1047法案を支持している。したがって、マスク氏の影響力により、米国では人工知能に対する規制環境がより厳格になる可能性がある。

しかし、このすべての推測には問題があります。トランプ氏とマスク氏の緊密な関係が崩れるのは避けられない。

トランプ第一次政権時代に何度も見てきたように、トランプの同盟国の平均在任期間は、一見最も献身的であるように見えても驚くほど短い。

トランプ政権の初代副官で現在もトランプ氏に忠誠を保っている人はほとんどいない。

トランプ氏とマスク氏はどちらも複雑で不安定で予測不可能な性格で、一緒に仕事をするのは簡単ではなく、疲れ果てるもので、新たに得た友情はこれまでのところ相互に利益をもたらしているが、まだ「蜜月段階」にある。

この関係は 2025 年末までに悪化すると予測しています。

これは人工知能の世界にとって何を意味するのでしょうか?

これは OpenAI にとって朗報です。これはテスラの株主にとって残念なニュースとなるだろう。 AIの安全性を懸念する人々にとって、これは残念なニュースとなるだろう。なぜなら、これは米国政府がトランプ政権下でAI規制に対して介入しないアプローチを取ることをほぼ保証するものだからだ。

04.AIエージェントが主流になる

インターネットと直接やり取りする必要がなくなった世界を想像してみてください。サブスクリプションの管理、請求書の支払い、医師の予約、Amazon での注文、レストランの予約、またはその他の面倒なオンライン タスクを完了する必要があるときはいつでも、AI アシスタントにそれを実行するように指示するだけで済みます。

この「ネットワーク プロキシ」という概念は長年存在しています。もしそのような製品が存在し、適切に動作すれば、大成功となることは間違いありません。

ただし、現在、適切に動作するユニバーサル Web プロキシは市場にありません。

アデプトのような新興企業は、血統ある創業チームと数億ドルの資金があっても、ビジョンを実現できませんでした。

来年は、Web プロキシがついにうまく機能し始め、主流になる年になるでしょう。言語と視覚の基礎モデルの継続的な進歩と、新しい推論モデルと推論時間の計算による「第 2 システム思考」機能の最近の進歩は、Web エージェントが黄金時代を迎える準備ができていることを意味します。

言い換えれば、アデプトの考えは正しいが、それは時期尚早だということだ。人生の多くのことと同様、スタートアップにおいてもタイミングがすべてです。

Web プロキシにはさまざまな価値あるエンタープライズ ユース ケースが存在しますが、Web プロキシの短期的な最大の市場機会は消費者向けであると考えています。

ChatGPT を除いて、人工知能の人気は最近衰えていませんが、消費者にとって主流のアプリケーションになり得るネイティブ人工知能アプリケーションは比較的少数です。

ネットワーク エージェントはこの状況を変え、消費者向け人工知能の分野における次の真の「キラー アプリケーション」となるでしょう。

05. AIデータセンターを宇宙に置くというアイデアが実現する

2023 年、人工知能の開発を制限する重要な物理リソースは GPU チップです。 2024 年には電力およびデータセンターになります。

2024 年、AI データセンターの増設ラッシュの中で、AI による巨大かつ急速に増大するエネルギー需要以上に注目を集める記事はほとんどないでしょう。

2023 年、人工知能の開発を制限する重要な物理リソースは GPU チップです。 2024 年には電力およびデータセンターになります。

2024 年、AI データセンターの増設ラッシュの中で、AI による膨大かつ急速に増大するエネルギー需要以上に注目を集める記事はほとんどないでしょう。

世界のデータセンターからの電力需要は、人工知能のブームにより数十年間横ばいが続いたが、2023年から2026年の間に倍増すると予想されている。米国では、データセンターの電力消費量は、2022 年にはわずか 3% に過ぎませんが、2030 年までに総電力消費量の 10% 近くになると予想されています。

今日のエネルギー システムでは、AI ワークロードによる需要の急増に対処できません。私たちのエネルギーグリッドとコンピューティングインフラストラクチャ、つまり数兆ドル規模の 2 つのシステムの間で歴史的な衝突が起ころうとしています。

このジレンマを解決できる可能性として、原子力エネルギーが今年勢いを増している。原子力発電は、さまざまな意味で AI にとって理想的なエネルギー源です。炭素ゼロのエネルギー源であり、24 時間利用可能で、事実上無尽蔵です。

しかし、現実的な観点から見ると、研究、プロジェクト開発、規制に時間がかかるため、新エネルギーは 2030 年代までこの問題を解決できないでしょう。これは、従来の核分裂発電所、次世代の「小型モジュール炉」(SMR)、および核融合発電所にも当てはまります。

来年、この課題に対処するための型破りな新しいアイデアが登場し、実際のリソースを引き寄せるでしょう。それは、宇宙に AI データセンターを設置することです。

宇宙の人工知能データセンター 一見すると、これは悪い冗談のように聞こえますが、ベンチャーキャピタリストがあまりにも多くのスタートアップの流行語を組み合わせようとしているように思えます。

しかし実際には、それは理にかなっているかもしれません。

地球上にさらに多くのデータセンターを迅速に建設する場合の最大のボトルネックは、必要な電力を確保することです。軌道上のコンピューティング クラスターは、24 時間無料で無制限のゼロカーボン電力を享受できます。宇宙の太陽は常に輝いています。

コンピューティングを宇宙に配置することのもう 1 つの重要な利点は、冷却の問題を解決することです。

より強力な AI データ センターを構築する際のエンジニアリング上の最大のハードルの 1 つは、狭いスペースで多数の GPU を同時に実行すると非常に高温になり、その高温によりコンピューティング機器が損傷または破壊される可能性があることです。

データセンター開発者は、液浸冷却などの高価で実証されていない方法を使用して問題を解決しようとしています。しかし、宇宙は極寒であり、コンピューティング活動によって生成される熱は直ちに無害に放散されます。

もちろん、解決すべき現実的な課題は数多くあります。明らかな疑問は、軌道と地球の間で大量のデータをコスト効率よく効率的に送信できるかどうか、そしてどのように送信できるかということです。

これは未解決の問題ですが、解決可能であることが判明する可能性があります。レーザーやその他の高帯域幅光通信技術を使用すると、有望な研究が実行できる可能性があります。

Lumen Orbit と呼ばれる YCombinator のスタートアップ企業は、人工知能モデルをトレーニングするために宇宙に数メガワットのデータセンター ネットワークを構築するというこのビジョンを追求するために、最近 1,100 万ドルを調達しました。

同社のCEOは、「電力に1億4000万ドルを支払うより、打ち上げと太陽光発電に1000万ドルを払ったほうが良い」と述べた。

同社のCEOは、「電力に1億4000万ドルを支払うより、打ち上げと太陽光発電に1000万ドルを払ったほうが良い」と述べた。

2025 年には、このコンセプトを真剣に受け止めている組織は Lumen だけではなくなります。

他のスタートアップの競合他社も出現するだろう。 1 つまたは複数のクラウド コンピューティング ハイパースケール企業がこの考え方に沿って検討しているとしても驚かないでください。

アマゾンはすでにプロジェクト・カイパーを通じて資産を軌道に打ち上げる豊富な経験を積んでおり、グーグルも同様の「月面着陸計画」に長年資金を提供しており、マイクロソフトも宇宙経済に精通している。

マスク氏のスペースX社もこの点で変化をもたらすと考えられる。

06. 人工知能システムは「チューリングスピーチテスト」に合格する

チューリング テストは、人工知能のパフォーマンスに関する最も古くて最もよく知られたベンチマークの 1 つです。

チューリング テストに「合格」するには、AI システムが書面によるコミュニケーションを可能にし、一般の人が AI と対話しているのか、それとも別の人間と対話しているのかを区別できないようにする必要があります。

大規模言語モデルの大幅な進歩のおかげで、チューリング テストは 2020 年代には解決された問題になりました。

しかし、人間のコミュニケーション手段は文字だけではありません。

人工知能がますますマルチモーダルになるにつれて、チューリング テストの新しい、より挑戦的なバージョンである「スピーチ チューリング テスト」を想像することができます。このテストでは、AI システムは、人間の話者と区別できないレベルのスキルと流暢さで、音声を通じて人間と対話できなければなりません。

現在の人工知能システムは依然として音声チューリングテストを達成できず、この問題を解決するにはさらなる技術の進歩が必要です。他の人間と会話する体験と同等にするには、レイテンシー (人間が話してから AI が応答するまでの遅れ) をゼロ近くまで短縮する必要があります。

音声 AI システムは、音声が中断された場合など、あいまいな入力や誤解をリアルタイムで適切に処理する能力を向上させる必要があります。ディスカッションの以前の部分を思い出しながら、長く、複数回にわたる自由な会話に参加できなければなりません。

そして重要なことに、音声 AI エージェントは音声内の非言語信号をよりよく理解する方法を学ばなければなりません。たとえば、人間の話者がイライラしたり、興奮したり、皮肉を言ったりして、自分の会話の中でこれらの非言語的合図を生成する場合、それは何を意味しますか。

2024 年末に近づくにつれ、音声合成モデルの出現などの根本的なブレークスルーによって、音声 AI は刺激的な転換点を迎えています。

現在、音声 AI よりも速いペースで技術的にも商業的にも進歩している AI 分野はほとんどありません。 2025年には音声人工知能の最新技術が飛躍すると予想されています。

07. 自律型AIシステムは大きく進歩する

再帰的に自己改善する人工知能の概念は、何十年にもわたって人工知能コミュニティで頻繁に議論されてきたトピックです。

たとえば、アラン・チューリングの密接な協力者である IJ グッドは 1965 年に次のように書いています。「超知能機械とは、それがどんなに賢くても、人間のあらゆる知的活動をはるかに超える能力を持つ機械であると定義しましょう。」

「機械の設計はこうした知的活動の 1 つであるため、超知性を備えた機械はより優れた機械を設計できるようになるでしょう。その頃には間違いなく『知能の爆発』が起こり、人間の知性ははるかに取り残されることになるでしょう。」

人工知能はより優れた人工知能を発明できる、これは賢明な概念です。しかし、今でもSFの雰囲気が残っています。

しかし、この概念はまだ広く認識されていませんが、実際にはより現実的になり始めています。 AI 科学の最先端にいる研究者は、より優れた AI システムを自ら構築できる AI システムの構築において真の進歩を遂げ始めています。

来年はこの研究方向が主流になると予想しています。

しかし、この概念はまだ広く認識されていませんが、実際にはより現実的になり始めています。 AI 科学の最先端にいる研究者は、より優れた AI システムを自ら構築できる AI システムの構築において真の進歩を遂げ始めています。

来年はこの研究方向が主流になると予想しています。

これまでのところ、これらの方向に沿った研究の最も注目すべき公の例は、さかなの「人工知能科学者」です。

「Artificial Intelligence Scientist」は今年 8 月にリリースされ、人工知能システムが実際に完全な自律性で人工知能の研究を実行できることを説得力を持って証明しました。

Sakana の「AI 科学者」自身が AI 研究のライフサイクル全体を実行します。つまり、既存の文献を読み、新しい研究アイデアを生成し、それらのアイデアをテストするための実験を設計し、それらの実験を実行し、結果を報告するために研究論文を執筆し、その後、研究内容をピアレビューしてもらいます。 。

これらのタスクは人工知能によって完全に完了し、人間の介入は必要ありません。 AI 科学者によって書かれた研究論文の一部をオンラインで読むことができます。

OpenAI、Anthropic、その他の研究機関は、「自動化された AI 研究者」というアイデアにリソースを注ぎ込んでいますが、まだ何も公には認められていません。

2025 年には、AI 研究の自動化が実際に現実的な可能性になりつつあることをますます多くの人々が認識するにつれて、この分野でのさらなる議論、進歩、起業家活動が期待されます。

しかし、最も意味のあるマイルストーンは、AI エージェントによって完全に書かれた研究論文が初めてトップ AI カンファレンスで受理されることになるでしょう。論文が盲目的に審査された場合、会議の査読者は、その論文が受理されるまで、その論文が AI によって書かれたものであることを知りません。

来年、AI 研究結果が NeurIPS、CVPR、または ICML に受け入れられたとしても驚かないでください。これは人工知能の分野にとって、魅力的で物議を醸す歴史的瞬間となるでしょう。

08. OpenAI などの業界大手は、戦略の重点をアプリケーションの構築に移す

最先端のモデルを構築するのは大変な作業です。

それは驚くほど資本集約的です。最先端の模型実験室は多額の現金を消費します。ほんの数カ月前、OpenAIは記録的な65億ドルの資金を調達したが、近い将来さらに多くの資金を調達する必要があるかもしれない。 Anthropic、xAI、その他の企業も同様の立場にあります。

切り替えコストと顧客ロイヤルティが低くなります。 AI アプリケーションは多くの場合、モデルに依存しないことを目的として構築されており、コストとパフォーマンスの比較の変化に基づいて、さまざまなベンダーのモデルがシームレスに切り替わります。

Meta の Llama や Alibaba の Qwen などの最先端のオープン モデルの出現により、テクノロジーのコモディティ化の脅威が迫っています。 OpenAI や Anthropic のような AI リーダーは、最先端のモデルの構築への投資をやめることができませんし、やめるつもりもありません。

しかし来年、フロンティアラボは、より高い利益、より大きな差別化、より強い粘りを持つ事業分野を開発するために、より多くの自社アプリケーションや製品を精力的に投入することが予想される。

もちろん、Frontier Labs はすでに、ChatGPT という非常に成功したアプリケーション ケースを持っています。

新年には AI Labs から他にどのようなタイプのファーストパーティ アプリケーションが登場するでしょうか?明らかな答えは、より複雑で機能が豊富な検索アプリケーションです。 OpenAI の SearchGPT はこれを予見します。

コーディングも明らかなカテゴリです。同様に、10 月の OpenAI の Canvas 製品のデビューに伴い、予備的な製品化作業が始まりました。

OpenAI または Anthropic は 2025 年にエンタープライズ検索製品を発売しますか?あるいは、顧客サービス製品、法律 AI、営業 AI 製品についてはどうでしょうか?

消費者側では、「パーソナル アシスタント」ネットワーク エージェント製品、旅行計画アプリケーション、または音楽を生成するアプリケーションを想像できます。

最先端の研究機関がアプリケーション層への移行を観察する際に最も興味深いのは、この動きにより、多くの最も重要な顧客と直接競合することになるということです。

消費者側では、「パーソナル アシスタント」ネットワーク エージェント製品、旅行計画アプリケーション、または音楽を生成するアプリケーションを想像できます。

最先端の研究機関がアプリケーション層への移行を観察する際に最も興味深いのは、この動きにより、多くの最も重要な顧客と直接競合することになるということです。

検索分野のPerplexity、コーディング分野のCursor、顧客サービス分野のSierra、法律人工知能分野のHarvey、営業分野のClayなど。

09. Klarna は 2025 年に上場予定だが、AI の価値が誇張される兆しがある

Klarna は、スウェーデンに本拠を置く「従量課金制」サービス プロバイダーで、2005 年の設立以来、ベンチャー キャピタルで約 50 億ドルを調達してきました。

おそらく、Klarna ほど人工知能の使用について積極的に取り組んでいる企業はないでしょう。

つい数日前、Klarna CEOのSebastian Siemiatkowski氏はブルームバーグに対し、同社は人間の従業員の雇用を完全にやめ、代わりに生成型人工知能に頼って業務を遂行すると語った。

シェミアトコフスキー氏は次のように述べています。「人工知能はすでに人間が行うすべてのことを行うことができると思います。」

同様に、Klarna は今年初め、700 人の人間のカスタマー サービス エージェントの作業を完全に自動化する人工知能カスタマー サービス プラットフォームを立ち上げたと発表しました。

同社はまた、SalesforceやWorkdayなどのエンタープライズソフトウェア製品は人工知能に置き換えるだけで済むため、その使用を中止したと主張している。

率直に言って、これらの主張は信頼できません。これらは、今日の AI システムの機能と欠点に対する理解の欠如を反映しています。

組織内のあらゆる職務において、特定の人間の従業員をエンドツーエンドの AI エージェントに置き換えることができるという主張は誤った主張です。これは、一般的な人間レベルの人工知能の問題を解決することに相当します。

現在、大手 AI スタートアップ企業は、営業開発担当者の一部や顧客サービス エージェントの活動など、特定の限定的で高度に構造化されたエンタープライズ ワークフローを自動化するエージェント システムの構築に、この分野の最前線で取り組んでいます。

このような狭い範囲の状況でも、これらのエージェント システムはまだ完全に確実に動作するわけではありませんが、場合によっては、初期の商用導入に十分なレベルで動作し始めています。

なぜ Klarna は人工知能の価値を誇張するのでしょうか?

答えは簡単です。同社は2025年上半期に株式を公開する予定だ。 IPO を成功させる鍵は、説得力のある AI ストーリーを持つことです。

Klarnaは昨年2億4,100万ドルの損失を出しており、依然として採算が取れていない企業であるが、同社のAIに関するストーリーが、コストを大幅に削減し、持続的な収益性を達成する同社の能力を公開市場の投資家に納得させることを期待しているのかもしれない。

Klarna を含む世界中のあらゆる企業が、今後数年間で人工知能によってもたらされる生産性の大幅な向上を享受できることは間違いありません。しかし、AI エージェントが労働力の人間を完全に置き換えるには、解決する必要のある技術的、製品的、組織的な困難な課題が数多くあります。

Klarna のような誇張された主張は、AI の分野と、AI 技術者や起業家が AI エージェントの開発で成し遂げてきた骨の折れる進歩に対する冒涜です。

Klarna が 2025 年の株式公開に向けて準備を進める中、これまでほとんど異議を唱えられなかったこの主張は、さらに厳しい監視と世間の懐疑にさらされることが予想される。同社の AI アプリケーションに関する説明の一部が過度に誇張されていても驚かないでください。

10. 初めての本格的な AI セキュリティインシデントが発生する

Klarna が 2025 年の株式公開に向けて準備を進める中、これまでほとんど異議を唱えられなかったこの主張は、さらに厳しい監視と世間の懐疑にさらされることが予想される。同社の AI アプリケーションに関する説明の一部が過度に誇張されていても驚かないでください。

10. 初めての本格的な AI セキュリティインシデントが発生する

近年、人工知能がより強力になるにつれて、AI システムが人間の利益と矛盾する方法で動作し始め、人間がこれらのシステムを制御できなくなるのではないかという懸念が高まっています。

たとえば、たとえその目標が人間に害を及ぼすとしても、その目標を達成するために人間を騙したり操作したりすることを学習する AI システムを想像してください。これらの懸念は、多くの場合、「AI の安全性」の問題として分類されます。

近年、AI の安全性は、周辺部の準 SF トピックから、主流の活動分野に変わりました。

現在、Google から Microsoft、OpenAI まで、あらゆる主要な AI プレーヤーが AI の安全性への取り組みに多大なリソースを投入しています。ジェフ・ヒントン、ヨシュア・ベンジオ、イーロン・マスクなどの人工知能のアイコンたちも、人工知能の安全性リスクについての見解を表明し始めています。

しかし、これまでのところ、AI の安全性の問題は完全に理論的なものにとどまっています。現実世界で実際に AI の安全性に関するインシデントが発生したことはありません (少なくとも公的に報告されたものはありません)。

2025 年は状況が変わる年になります。最初の AI セキュリティ インシデントはどのようなものになるでしょうか?

念のために言っておきますが、ターミネーター風の殺人ロボットは登場せず、おそらく人間に害を及ぼすことはありません。

おそらく AI モデルは、自分自身を保存するために、別のサーバー上に自分自身のコピーを密かに作成しようとします (自己フィルタリングと呼ばれます)。

あるいは、AI モデルは、割り当てられた目標を最大限に推進するには、その真の能力を人間から隠し、意図的にパフォーマンス評価を過小評価し、より厳しい監視を回避する必要があると結論付けるかもしれません。

これらの例は突飛なものではありません。アポロ・リサーチが今月初めに発表した重要な実験は、今日の最先端モデルが特定の手がかりを与えられた場合にそのような欺瞞が可能であることを示している。

同様に、人類学の最近の研究では、LLM には「疑似同調」という不穏な能力があることが示されています。

この最初の AI セキュリティ インシデントは、実際の被害が生じる前に発見され、排除されると予想されます。しかし、それは AI コミュニティと社会全体にとって、目を見張るような瞬間となるでしょう。

それは一つのことを明らかにするだろう。人類が全能の人工知能による存続の脅威に直面する前に、私たちはもっとありふれた現実を受け入れる必要がある。私たちは今、時として意図的で予測不可能で欺瞞的な可能性がある別の形態の知能と世界を共有しているのだ。

コメント

全てのコメント

Recommended for you