AI on AO カンファレンスでは、Web Assembly 64 ビットのサポート、WeaveDrive テクノロジー、および Llama.cpp 大規模言語モデル推論エンジンの統合という 3 つの重要な技術的進歩が紹介されました。同時に、LlaMA Land と Apus Network の 2 つのプロジェクトが特別に紹介されました。詳細については記事に従ってください。
著者:カイル
レビュー者:レモン
出典:コンテンツ ギルド - ニュース
6月20日、AI on AOカンファレンスが無事閉幕した。このカンファレンスでは、AO プロトコルが 3 つの主要な技術アップデートをデモンストレーションしました。これらは、スマート コントラクトが分散環境で大規模な言語モデルを実行できることを示しており、エキサイティングな技術的進歩を表しています。
具体的には、AI テクノロジーにおける AO の主要な進歩には、次の 3 つの側面が含まれます。
- Web Assembly 64 ビットのサポート:開発者は 4 GB を超えるメモリを備えたアプリケーションを作成できるようになり、Web Assembly 64 ビットは理論的には最大 16 エクサバイト (約 17 億 GB) のメモリをサポートします。現在、AO は 16 GB のモデルを実行できます。これは、AO の現在の 16 GB メモリ レベルが現在の AI 分野のほぼすべてのモデルを実行するのに十分であることも意味します。メモリ容量の拡張は、アプリケーションのパフォーマンスを向上させるだけでなく、開発の柔軟性と技術革新を促進します。
- WeaveDrive テクノロジー:このテクノロジーは、開発者がデータにアクセスして管理する方法を簡素化し、ローカル ハード ドライブのように Arweave データにアクセスし、データを実行環境に効率的にストリーミングして、開発とアプリケーションのパフォーマンスを高速化します。
- Llama.cpp 大規模言語モデル推論エンジンの統合: Llama.cpp システムを移植することにより、AO は、Llama 3 や GPT-2 などのさまざまなオープンソース大規模言語モデルをスマート コントラクトで直接実行することをサポートします。これは、スマート コントラクトが高度な言語モデルを直接使用して複雑なデータを処理し、意思決定 (財務上の意思決定を含む) を行うことができ、分散型アプリケーションの機能を大幅に拡張できることを意味します。
これら 3 つの重要な技術的ブレークスルーにより、開発者が AO で AI アプリケーションを構築するための大きな余地が生まれます。応用例として、完全に AI によって駆動される新しいプロジェクト Llama Land がカンファレンスで特別に紹介されました。同時に、別の分散型 GPU ネットワーク プロジェクトである Apus Network があり、将来的に最もコスト効率の高い方法で AO 上の AI アプリケーションに最適な AI モデル実行環境を提供します。
これら 3 つの重要な技術的ブレークスルーにより、開発者が AO で AI アプリケーションを構築するための大きな余地が生まれます。応用例として、完全に AI によって駆動される新しいプロジェクト Llama Land がカンファレンスで特別に紹介されました。同時に、別の分散型 GPU ネットワーク プロジェクトである Apus Network があり、将来的に最もコスト効率の高い方法で AO 上の AI アプリケーションに最適な AI モデル実行環境を提供します。
ラマランド
Llama Land は、AO 上に構築された完全なアップチェーンの大規模オンライン マルチプレイヤー ゲームで、ユーザーのために AI (Llama 3 モデル) によって完全に駆動される仮想世界を作成します。ラマランドにはラマ連銀と呼ばれるシステムがあり、これは連邦準備制度に似ていますが、ラマモデルによって運営されており、金融政策とラマトークンの鋳造を担当しています。
ユーザーは Arweave トークン (wAR) を提供することで Llama トークンをリクエストでき、Llama Fed はリクエストの品質 (プロジェクト/提案が興味深いか価値があるかなど) に基づいてトークンを付与するかどうかを決定します。プロセス全体に人が介入する必要はありません。 。
現在、ラマ ランドは完全には一般公開されていません。興味のあるユーザーはウェブサイトにアクセスして待機リストに参加し、できるだけ早く体験してください。
アパスネットワーク
Apus Network は、分散型のパーミッションレス GPU ネットワークです。 Arweave の永続ストレージと AO のスケーラビリティを利用し、経済的インセンティブ メカニズムを通じて AI モデルに決定論的な GPU 実行環境を提供します。具体的には、Apus Network は、AO 上の AI アプリケーションに効率的、安全かつ経済的なコンピューティング環境を提供することで、分散型 AI の開発をさらに促進します。
Apus Network プロジェクトは最近、ユーザー エクスペリエンスを向上させるために Web サイトのコンテンツを更新しました。同時に、モデル評価機能とモデル微調整機能の開発も継続しており、段階的に成果を上げています。将来的には、Apus Network は AO エコロジカル ウォレットをサポートし、Playground で関連する開発とテストを完了する予定です。さらに、AO プラットフォーム上でモデル評価機能が拡張および実装され、アプリケーションの機能とパフォーマンスがさらに強化されます。
要約する
この AI on AO カンファレンスは、さまざまな高度な AI モデルを実行できる AO の能力を実証しただけでなく、分散型 AI アプリケーションの開発を大きく促進しました。このテクノロジー アップグレード後のサンプル プロジェクトとして、Llama Land は自律型 AI エージェント アプリケーションのプロトタイプを示します。 AI アプリケーションの開発に伴い、AO エコシステムには、大規模な言語モデルの実行を高速化するために、より多くの GPU リソースが導入されます。 Apus Network は、AO に接続する最初の分散型 GPU ネットワークでもあります。
将来的には、AO は、大規模な AI モデルの実行をサポートするために、需要に基づいてメモリ制限をさらに引き上げます。同時に、AO は自律型 AI エージェントの構築の可能性を探求し、分散型金融とスマート コントラクトのアプリケーション シナリオをさらに拡大していきます。
将来的には、AO は、大規模な AI モデルの実行をサポートするために、需要に基づいてメモリ制限をさらに引き上げます。同時に、AO は自律型 AI エージェントの構築の可能性を探求し、分散型金融とスマート コントラクトのアプリケーション シナリオをさらに拡大していきます。
🏆 「バグを捕まえた」場合の賞品: この記事内でタイプミス、間違った文章、または間違った説明を見つけた場合は、 私をクリックして報告してください。インセンティブが与えられます。
免責事項: この記事の内容は参照のみを目的としており、投資アドバイスを構成するものではありません。
全てのコメント