人間と競合する知性を備えた AI システムは、社会と人類に重大なリスクをもたらす可能性があることが、広範な研究[1] で示され、主要な AI ラボによって認められています。広く支持されている Asilomar AI Principlesで述べられているように、高度な AI は地球上の生命の歴史に重大な変化をもたらす可能性があり、相応の注意とリソースで計画および管理する必要があります。残念ながら、このレベルの計画と管理は実現していません。ここ数か月間、AI ラボは制御不能な競争に巻き込まれ、誰も (作成者でさえも) 理解できない、より強力なデジタルマインドを開発および展開しているにもかかわらず、予測するか、確実に制御します。
現代の AI システムは現在、一般的なタスクで人間と競争できるようになってきており[3]、私たちは自問する必要があります: 機械が私たちの情報チャネルをプロパガンダや虚偽で溢れさせてはならないのでしょうか? 充実した仕事を含め、すべての仕事を自動化する必要がありますか? 私たちは、最終的に数を上回り、賢く、時代遅れになり、私たちに取って代わる可能性のある非人間的な心を開発する必要がありますか? 私たちの文明の制御を失う危険を冒すべきですか? そのような決定は、選出されていない技術リーダーに委任してはなりません。強力な AI システムは、その効果が肯定的であり、リスクが管理可能であると確信した場合にのみ開発する必要があります。この信頼は十分に正当化され、システムの潜在的な影響の大きさに応じて増加する必要があります。汎用人工知能に関するOpenAI の 最近の声明は、「ある時点で、将来のシステムのトレーニングを開始する前に、独立したレビューを受けることが重要になる可能性があります。また、新しいモデルの作成に使用されるコンピューティングの成長率を制限することに同意するための最も先進的な取り組みについても重要になる可能性があります。」私達は同意します。その点は今です。
したがって、すべての AI ラボに対して、GPT-4 よりも強力な AI システムのトレーニングを少なくとも 6 か月間直ちに一時停止するよう求めます。この一時停止は公開され、検証可能であり、すべての主要な関係者が含まれている必要があります。そのような一時停止を迅速に制定できない場合、政府は介入してモラトリアムを設定する必要があります。
AI ラボと独立した専門家は、この一時停止を利用して、独立した外部の専門家によって厳密に監査および監督される、高度な AI の設計と開発のための一連の共有安全プロトコルを共同で開発および実装する必要があります。これらのプロトコルは、それに準拠するシステムが合理的な疑いを超えて安全であることを保証する必要があります.[4] これは、一般的な AI 開発の一時停止を意味するものではありません。危険な競争から、新たな機能を備えたこれまで以上に大規模で予測不可能なブラックボックス モデルへの後退を意味するだけです。
AI の研究開発は、今日の強力で最先端のシステムをより正確で、安全で、解釈可能で、透明性があり、堅牢で、整合性があり、信頼でき、忠実なものにすることに再び焦点を当てる必要があります。
並行して、AI 開発者は政策立案者と協力して、堅牢な AI ガバナンス システムの開発を劇的に加速する必要があります。これらには、少なくとも次のものが含まれる必要があります。AI に特化した新しい有能な規制当局。高度な能力を持つ AI システムと大規模な計算能力プールの監視と追跡。本物と合成を区別し、モデルのリークを追跡するのに役立つ来歴および透かしシステム。堅牢な監査および認証エコシステム。AI によって引き起こされた損害に対する責任。技術的な AI の安全性研究に対する強力な公的資金提供。そして、AI が引き起こす劇的な経済的および政治的混乱 (特に民主主義) に対処するための十分なリソースを備えた機関。
人類は AI によって豊かな未来を享受できます。強力な AI システムの作成に成功した今、私たちは「AI サマー」を楽しむことができます。そこでは、報酬を獲得し、これらのシステムを設計してすべての人に明らかに利益をもたらし、社会に適応する機会を与えることができます。社会は、社会に壊滅的な影響を与える可能性のある他の技術を一時停止しています.[5] ここでそれを行うことができます。あわてて秋に突入するのではなく、AI の長い夏を楽しみましょう。
全てのコメント