This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
d/ACC創立1周年記念:防衛加速化とAI規制思考の進展
D/ACC:1年後の振り返り
昨年、私は技術的楽観主義に関する記事を書き、技術への情熱とそれがもたらす巨大な利益について説明しました。同時に、主に超知能AIに関する問題や、それがもたらす可能性のある壊滅的なリスクや不可逆的な権力喪失についての慎重な態度も表明しました。
記事の核心的な見解は、分散化され民主的で差別化された防御的加速の理念を提唱することです。技術の発展を加速するだけでなく、破壊能力ではなく防御能力を高める技術に焦点を当て、権力を分散させ、少数のエリートがすべての人を代表して正しいか間違っているかを判断することを避けることに努めるべきです。防御のモデルは、中世の封建領主の城ではなく、民主主義のスイスのようであるべきです。
1年間、これらの考えは顕著な進展を遂げました。私は「80,000時間」というプラットフォームでこれらの見解を共有し、大多数の肯定的な反応を受け取り、いくつかの批判もありました。この仕事は実際の成果を上げました: 検証可能なオープンソースワクチン分野で進展がありました; 健康な室内空気の価値がより認識されるようになりました; 「コミュニティノート」が引き続き積極的な役割を果たしています; 予測市場が情報ツールとして突破の年を迎えました; ゼロ知識証明が政府の身分識別やソーシャルメディア分野で応用されています; オープンソースのイメージングツールが医学や脳-コンピュータインターフェースの分野で利用されるようになりました、など。
昨年の秋、私たちは最初の重要なd/accイベント「d/acc発見の日」(d/aDDy)を開催し、d/accの各分野(の生物学、物理学、ネットワーク、防御情報、神経技術)の講演者を集めました。これらの技術に長年取り組んできた人々はお互いの仕事をより理解し、外部の人々もより大きなビジョンを意識し始めています。それは、イーサリアムと暗号通貨の発展に対する価値観がより広い世界に広がる可能性があるということです。
! [Vitalikの新しい記事:分散型アクセラレーションが暗号通貨とAIにどのようにアプローチするか?] ](https://img-cdn.gateio.im/webp-social/moments-160f74295ba6e4b4e0353b0c4e25a386.webp)
D/ACCの意味合いと拡張
d/accの核心思想は: 非中央集権、民主的かつ差別化された防御的加速です。攻防のバランスを防御側に傾けることができる技術を構築し、実施過程では中央権威にさらなる権力を委譲することに依存しないようにします。この二つの側面は密接に関連しています: いかなる非中央集権的、民主的または自由な政治構造も、防御が実施しやすい時には繁栄し、防御が困難な時には挑戦に直面することが多いです。
分散化、防御性、加速性の重要性を理解し同時に実現する方法の一つは、これら三つの側面のいずれかを放棄した場合に生じる概念と比較することです:
! [Vitalikの新しい記事:分散型アクセラレーションが暗号通貨とAIにどのようにアプローチするか?] ](https://img-cdn.gateio.im/webp-social/moments-e42a1dcd075fe6d525b3fa2ccbe6aa27.webp)
d/accを通じて、私たちは以下の目標を達成することに努めています:
今日の世界がますます部族化する中で、原則を守り、特定の物事を構築して世界をより安全で美しいものにする。
指数関数的な技術進歩を認識することは、世界が非常に奇妙になることを意味し、人類の宇宙における「足跡」は必然的に増え続けるでしょう。脆弱なものを傷害から守る能力は持続的に向上しなければならず、唯一の道は前進し続けることです。
我々は「良い人(または良いAI)がすべてを支配する」という前提に基づくのではなく、実際に我々の技術を保護することができるものを構築します。この目標を達成するために、破壊するために使用されるよりも、構築および保護するために自然に効果的なツールを構築します。
d/accの別の視点は、21世紀の00年代末のヨーロッパの海賊党運動の枠組み、つまり権限付与に戻ることです。我々の目標は、人間の能動性を保持できる世界を構築し、消極的自由を実現すること、つまり他者(、一般市民、政府、あるいはスーパーインテリジェントロボット)が我々自身の運命を形作る能力に対して積極的に干渉しないようにすることです。同時に、積極的自由を実現し、この能力を行使するための知識とリソースを持つことを確保します。
! [Vitalikの新しい記事:分散型アクセラレーションが暗号通貨とAIにどのようにアプローチするか?] ](https://img-cdn.gateio.im/webp-social/moments-cf3127f9a06cb15023ddeba35b9b2ad9.webp)
難題:AIの安全性、緊急なタイムラインと規制のジレンマ
昨年、私の論文に対して最も説得力のある反対意見はAIセキュリティコミュニティから寄せられました。その主張は次のようなものでした:「確かに、もし私たちが強力なAIを開発するために半世紀の時間を持っているなら、私たちはこれらの有益なものを構築することに集中することができます。しかし実際には、私たちが一般的なAIを発展させるために持っている時間はおそらく3年しかなく、その後3年で超知能に発展するかもしれません。したがって、もし私たちが世界を破滅させたり、他の方法で取り返しのつかない状況に陥らせたくないのであれば、有益な技術の発展を加速させるだけでなく、有害な技術の発展を遅らせる必要があります。これは、権力者を怒らせる可能性のある強力な規制措置を講じる必要があることを意味します。」
新しい規制に対して慎重な態度を持つ理由:
昨年、主要なAI規制提案はカリフォルニア州のSB-1047法案でした。この法案は、最も強力なモデル(の訓練コストが1億ドルを超えるか、微調整コストが1000万ドルを超える)開発者に対して、リリース前に一連の安全テスト措置を講じることを要求しています。もしAIモデル開発者が十分に慎重でなければ、責任を追及されることになります。多くの批評家はこの法案が「オープンソースに対して脅威である」と考えていますが、私はこの点に異議を唱えます。なぜなら、コストの閾値があるため、最も強力なモデルにのみ影響を与えるからです。しかし、過去を振り返ると、この法案にはもっと深刻な問題があると思います。ほとんどの規制措置と同様に、現状に過度に適応しているのです。訓練コストへの関心は新技術に直面したときに脆弱であることが証明されています。最近の最先端DeepSeek v3モデルの訓練コストはわずか600万ドルであり、o1のような新しいモデルでは、コストが訓練から推論段階に移行することが一般的です。
! [Vitalikの新しい記事:分散型アクセラレーションが暗号通貨とAIにどのようにアプローチするか?] ](https://img-cdn.gateio.im/webp-social/moments-7ebae4f7e715feb6063c7ff4e321b245.webp)
AI超知能の破滅的シナリオに最も関与する可能性のある行為者:
実際に、AIのスーパーインテリジェンスによる破滅シナリオの最も可能性が高い責任者は軍隊です。過去半世紀の生物安全(およびそれ以前の時期)に見られたように、軍隊は恐ろしい行動を取ることをいとわず、非常にミスを犯しやすいです。現在、AIの軍事分野での応用は急速に進展しており(、ウクライナやガザ地区での応用)がその例です。また、どの政府が通過させる安全規制措置も、デフォルトで自国の軍隊および軍隊と密接に協力する企業を免除します。
対処戦略:
それにもかかわらず、これらの議論は私たちを無力にする理由ではありません。むしろ、私たちはそれらを指針として、これらの懸念を最小限に引き起こすルールを策定しようと試みることができます。
戦略1:説明責任
もし誰かの行動が何らかの方法で法的に追及可能な損害を引き起こした場合、彼らは訴えられる可能性があります。これは、軍隊やその他の「法律の上にある」行為者からもたらされるリスクの問題を解決するものではありませんが、過剰適合を避けるための非常に一般的なアプローチであり、そのため自由意志主義的な経済学者は通常この方法を支持します。
これまでに検討された主な責任目標は以下の通りです:
ユーザーに責任を帰属させることは、インセンティブメカニズムに最も合致しているようです。モデルの開発方法と最終的な使用方法との関連はしばしば明確ではありませんが、ユーザーがAIの具体的な使用方法を決定します。ユーザーに責任を問うことは強力なプレッシャーを生み出し、私が正しいと思う方法でAIを使用するよう人々を促します: 人間の思考のために機械的なスーツを構築することに集中し、新しい自己維持型の知能生命体を創造することではなく。前者は定期的にユーザーの意図に応じて反応するため、ユーザーが望まない限り、破滅的な行動を引き起こすことはありません。一方、後者は最大のリスクがあり、制御を失い、古典的な「AIの制御喪失」シナリオを引き起こす可能性があります。責任を最終的な使用端にできるだけ近づけることのもう一つの利点は、責任が他の面で有害な行動を取るリスクを最小限に抑えることです(例えば、クローズドソース、顧客確認(KYC)および監視、国家/企業の共謀によるユーザーに対する秘密の制限、たとえば銀行が特定の顧客にサービスを提供することを拒否し、世界の広範な地域を除外することです)。
! [Vitalikの新しい記事:分散型アクセラレーションが暗号通貨とAIにどのようにアプローチするか?] ](https://img-cdn.gateio.im/webp-social/moments-bbfd388fc37072f272c62129923df866.webp)
ユーザーに責任をのみ帰することに反対する古典的な見解がある: ユーザーは一般の個人であり、あまりお金を持っていない場合や、匿名である可能性があるため、実際に壊滅的な損害を負担できる人がいない。この見解は誇張されることがある: たとえ一部のユーザーが責任を負うには小さすぎるとしても、AI開発者の一般的な顧客はそうではなく、したがってAI開発者は、ユーザーが高い責任リスクに直面しないと確信できる製品を構築する動機を持ち続けることになる。つまり、これは依然として解決すべき有効な見解である。適切な慎重さを取ることができる資源を持つ何者かをパイプライン内で動機付ける必要があり、デプロイヤーと開発者は容易に見つけることのできるターゲットであり、彼らはモデルの安全性に大きな影響を持っている。
デプロイ者の責任は合理的であるようです。一般的な懸念は、オープンソースモデルには効果がないことですが、これは管理可能なようで、特に最も強力なモデルが閉じられている可能性が高いことを考えると、(結果がオープンソースである場合、デプロイ者の責任は最終的にはあまり有用ではないかもしれませんが、あまり大きな危害をもたらすことはないでしょう)。開発者の責任についても同様の懸念があります(。オープンソースモデルに対しては、特定の許可されていないことを行うためにモデルを微調整する必要があるため、一定の障害が存在します)が、同様の反論理由も当てはまります。一般的な原則として、コントロールに「税」を課すことは、本質的に「あなたは制御できないものを構築することができるか、制御できるものを構築することができるが、制御できるものを構築する場合、20%の制御権を私たちの目的のために使用しなければならない」と言っているように思えます。これは法律体系が持つべき合理的な立場のようです。
! [Vitalikの新しい記事:分散型アクセラレーションが暗号通貨とAIにどのようにアプローチするか?] ](https://img-cdn.gateio.im/webp-social/moments-464eec9622a1aadced54930095728902.webp)
十分に探求されていないように思えるアイデアは、パイプライン内の他の行為者に責任を帰することです。これらの行為者は、十分なリソースを持っている可能性が高いです。d/accの理念に非常に合致するアイデアは、AIが特定の壊滅的に有害な行動を実行する過程で(を乗っ取った場合、例えばハッキングを通じて)のすべてのデバイスの所有者またはオペレーターに責任を追及することです。これにより、人々が世界をできる限り安全に保つために努力する非常に広範なインセンティブが生まれます。特に計算および生物学の分野(におけるインフラストラクチャーにおいて。
戦略2: 工業規模ハードウェアのグローバル"ソフト一時停止"ボタン
もし私が責任の原則よりも"強力な"手段が必要だと確信しているなら、私はこの戦略を選びます。目標は、重要な時期に世界中で利用可能な計算能力を約90%-99%削減する能力を持ち続けることです、1-2年間、人類にもっと準備する時間を確保するために。1-2年の価値は過大評価されるべきではありません:一年の"戦時モード"は、自己満足の状況であれば、百年の通常作業に匹敵することが簡単です。"一時停止"を実現する方法はすでに探求されており、ハードウェアの登録と位置の検証を要求するなどの具体的な提案が含まれています。
より高度なアプローチは、巧妙な暗号技術手段を使用することです: 例えば、産業規模で生産された)ですが、消費者向けではない(AIハードウェアには、信頼できるハードウェアチップが装備されており、主要な国際機関)から少なくとも1つの非軍事関連機関(の3/3署名を毎週取得した場合にのみ、運転を継続することが許可されます。これらの署名はデバイスに依存しません)必要に応じて、私たちは(ブロックチェーン上でゼロ知識証明を公開することを要求することもできますので、これは全てか無かです: すべての他のデバイスの承認なしにデバイスの運転を継続するための実際の方法はありません。
これは利益を最大化し、リスクを最小化する点で「要件を満たしている」ようです: