d/acc الذكرى السنوية الأولى: تقدم الدفاع المعزز وتأملات في تنظيم الذكاء الاصطناعي

d/acc: مراجعة بعد عام

في العام الماضي، كتبت مقالًا حول التفاؤل التكنولوجي، حيث عبرت عن حماسي للتكنولوجيا والفوائد الكبيرة التي يمكن أن تقدمها. كما عبّرت عن موقف حذر تجاه بعض القضايا، وخاصة فيما يتعلق بالذكاء الاصطناعي الفائق والمخاطر المدمرة أو فقدان السلطة الذي قد ينجم عن ذلك.

تتمثل الفكرة الرئيسية للمقال في الدعوة إلى مفهوم تسريع دفاعي غير مركزي وديمقراطي ومتعدد. يجب تسريع التطور التكنولوجي، مع التركيز على تعزيز القدرات الدفاعية بدلاً من القدرات التدميرية، والالتزام بتوزيع السلطة، لتجنب أن يحكم القلة النخبوية على الصواب والخطأ نيابة عن الجميع. يجب أن يكون نموذج الدفاع مثل ديمقراطية سويسرا، وليس كقلعة من العصور الوسطى للوردات الإقطاعيين.

على مدار العام، شهدت هذه الأفكار تطورًا ملحوظًا. شاركت هذه الآراء على منصة "80,000 ساعة"، وتلقيت معظم الردود الإيجابية، بالإضافة إلى بعض الانتقادات. لقد حقق هذا العمل نتائج ملموسة: تم إحراز تقدم في مجال اللقاحات المفتوحة المصدر القابلة للتحقق؛ أصبح الناس أكثر وعيًا بقيمة الهواء الداخلي الصحي؛ لا تزال "ملاحظات المجتمع" تلعب دورًا إيجابيًا؛ شهدت أسواق التنبؤ اختراقًا كأداة معلومات؛ تم تطبيق إثباتات المعرفة الصفرية في مجالات تحديد الهوية الحكومية ووسائل التواصل الاجتماعي؛ تم استخدام أدوات التصوير المفتوحة المصدر في مجالات الطب وواجهات الدماغ والحاسوب، وغيرها.

في خريف العام الماضي، نظمنا أول حدث مهم في d/acc: "يوم اكتشاف d/acc" ( d/aDDy )، والذي جمع متحدثين من مختلف مجالات d/acc ( البيولوجيا، الفيزياء، الشبكات، الدفاع المعلوماتي، وتكنولوجيا الأعصاب ). الأفراد الذين كانوا ملتزمين بهذه التقنيات لفترة طويلة أصبحوا أكثر دراية بأعمال بعضهم البعض، كما أصبح الأفراد الخارجيون أكثر وعياً لرؤية أكبر: القيم التي تدفع تطوير الإيثيريوم والعملات المشفرة يمكن أن تمتد إلى عالم أوسع.

فيتاليك الجديدة: كيف يربط اللاتمركزية التسارع بين العملات الرقمية والذكاء الاصطناعي؟

مضمون d/acc ومداه

الفكرة الأساسية لـ d/acc هي: الدفاعية اللامركزية والديمقراطية والمختلفة. بناء تقنية يمكن أن تميل بتوازن الهجوم والدفاع نحو الدفاع، وعدم الاعتماد في عملية التنفيذ على منح المزيد من السلطة للسلطات المركزية. هذان الجانبان مرتبطان ارتباطًا وثيقًا: أي هيكل سياسي لامركزي أو ديمقراطي أو حر، غالبًا ما يزدهر عندما يكون الدفاع سهل التنفيذ، بينما يواجه تحديات عندما يكون الدفاع صعبًا.

طريقة لفهم أهمية تحقيق اللامركزية والدفاعية والتسريع في نفس الوقت، هي مقارنتها بالأفكار الناتجة عن التخلي عن أي من هذه الجوانب الثلاثة:

  1. التسريع اللامركزي، لكن تجاهل جزء "الدفاع المتنوع"
  2. تسريع الدفاع المتمايز، ولكن تجاهل "اللامركزية والديمقراطية"
  3. الدفاع اللامركزي، ولكن استبعاد التسريع

فيتاليك جديد: كيف تربط العملات المشفرة والذكاء الاصطناعي؟

نسعى لتحقيق الأهداف التالية من خلال d/acc:

  • التمسك بالمبادئ في ظل الاتجاه المتزايد نحو القبلية في العالم اليوم، وبناء أشياء معينة لجعل العالم أكثر أمانًا وجمالًا.

  • إدراك أن التقدم التكنولوجي المضاعف يعني أن العالم سيصبح غريبًا للغاية، فإن "أثر" الإنسانية في الكون سيتزايد بلا شك. يجب أن تستمر قدرتنا على حماية الأشياء الهشة من الأذى في التحسن، والطريق الوحيد هو التقدم للأمام.

  • بناء تقنيات قادرة على حمايتنا بشكل فعلي، وليس على افتراض "الأشخاص الطيبين ( أو الذكاء الاصطناعي الجيد ) يتحكمون في كل شيء". نحقق هذا الهدف من خلال بناء أدوات تكون بطبيعتها أكثر فعالية عند البناء والحماية مقارنةً عند التدمير.

إن التفكير في منظور آخر لـ d/acc هو العودة إلى إطار حركة حزب القراصنة الأوروبي في أواخر العقد الأول من القرن الحادي والعشرين: تمكين. هدفنا هو بناء عالم يمكنه الحفاظ على الفعل البشري، وتحقيق الحرية السلبية، أي تجنب التدخل النشط من الآخرين ( سواء كانوا مواطنين عاديين، أو حكومات، أو روبوتات فائقة الذكاء ) في قدرتنا على تشكيل مصيرنا، مع تحقيق الحرية الإيجابية، أي التأكد من أن لدينا المعرفة والموارد لممارسة هذه القدرة.

فيتاليك مقال جديد: كيف يربط التسريع اللامركزي بين العملات المشفرة والذكاء الاصطناعي؟

التحدي: أمان الذكاء الاصطناعي، الجدول الزمني العاجل والمأزق التنظيمي

في العام الماضي، جاءت أكثر وجهات النظر المعارضة إقناعًا لمقالتي من مجتمع أمان الذكاء الاصطناعي. كانت الحجة: "بالطبع، إذا كان لدينا نصف قرن من الزمن لتطوير الذكاء الاصطناعي القوي، يمكننا التركيز على بناء كل هذه الأشياء المفيدة. ولكن في الواقع، يبدو أن لدينا ثلاث سنوات فقط لتطوير الذكاء الاصطناعي العام، وبعد ثلاث سنوات أخرى للتطور إلى الذكاء الخارق. لذا، إذا لم نرغب في أن ينهار العالم أو يدخل في أزمة لا يمكن عكسها بطرق أخرى، فلا يمكننا فقط تسريع تطوير التكنولوجيا المفيدة، بل يجب أيضًا إبطاء تطوير التكنولوجيا الضارة، مما يعني الحاجة إلى تدابير تنظيمية قوية قد تثير غضب أصحاب السلطة."

أسباب التحفظ تجاه التنظيمات الجديدة:

في العام الماضي، كان الاقتراح الرئيسي لتنظيم الذكاء الاصطناعي هو مشروع قانون SB-1047 في كاليفورنيا. يتطلب من المطورين الذين يدربون أقوى النماذج ( بتكلفة تزيد عن 100 مليون دولار أو يقومون بتعديلها بتكلفة تزيد عن 10 ملايين دولار ) اتخاذ مجموعة من تدابير الأمان قبل الإصدار. إذا فشل مطورو نماذج الذكاء الاصطناعي في اتخاذ الاحتياطات الكافية، سيتم محاسبتهم. يعتقد العديد من النقاد أن هذا القانون "يشكل تهديدًا للمصدر المفتوح"؛ لكنني أختلف في ذلك لأن عتبة التكلفة تعني أنه يؤثر فقط على أقوى النماذج. ومع ذلك، عند مراجعة الماضي، أرى أن هناك مشكلة أكثر خطورة في هذا القانون: مثل معظم التدابير التنظيمية، فإنه يتكيف بشكل مفرط مع الوضع الحالي. لقد أثبت التركيز على تكاليف التدريب أنه ضعيف عند مواجهة تقنيات جديدة: فقد كانت تكلفة تدريب نموذج DeepSeek v3 المتقدم مؤخرًا 6 ملايين دولار فقط، وفي نماذج جديدة مثل o1، يتم غالبًا تحويل التكلفة من التدريب إلى مرحلة الاستدلال.

Vitalik الجديدة: كيف يربط تسريع اللامركزية بين العملة المشفرة والذكاء الاصطناعي؟

الأطراف الأكثر احتمالاً المسؤولة عن سيناريوهات دمار الذكاء الاصطناعي الفائق:

في الواقع، من المرجح أن يكون الفاعل المسؤول عن سيناريوهات تدمير الذكاء الاصطناعي الخارق هي الجيوش. كما شهدنا في نصف القرن الماضي من الأمن البيولوجي ( وما قبله )، فإن الجيوش مستعدة لاتخاذ إجراءات مروعة، وهي عرضة للخطأ بشكل كبير. اليوم، يتم تطبيق الذكاء الاصطناعي بسرعة في المجال العسكري ( كما في أوكرانيا وقطاع غزة ). وأي تدابير تنظيمية للأمن تمررها أي حكومة، ستكون تلقائياً معفاة من جيشها الوطني والشركات التي تعمل عن كثب مع الجيوش.

استراتيجية المواجهة:

ومع ذلك، فإن هذه الحجج ليست سببًا يجعنا عاجزين. على العكس من ذلك، يمكننا استخدامها كإرشادات، ومحاولة وضع قواعد تثير هذه المخاوف بأقل قدر ممكن.

الاستراتيجية 1: المسؤولية

إذا كان سلوك شخص ما يتسبب بطريقة ما في ضرر يمكن محاسبته قانونًا، فقد يتم مقاضاته. هذا لا يحل مشكلة المخاطر الناجمة عن الجيش وغيرهم من "الفاعلين الذين يتجاوزون القانون"، ولكنها طريقة عامة جدًا يمكن أن تتجنب الإفراط في التخصيص، ولهذا السبب يميل الاقتصاديون الذين يؤيدون الليبرالية إلى دعم هذه الممارسة.

الأهداف الرئيسية للمسؤوليات التي تم النظر فيها حتى الآن هي كما يلي:

  • المستخدم: الشخص الذي يستخدم الذكاء الاصطناعي.
  • المطور: وسيط يقدم خدمات الذكاء الاصطناعي للمستخدمين.
  • المطورون: الأشخاص الذين يبنون الذكاء الاصطناعي.

يبدو أن إلقاء اللوم على المستخدمين هو الأكثر توافقًا مع آلية التحفيز. على الرغم من أن العلاقة بين طريقة تطوير النموذج وطريقة استخدامه النهائية غالبًا ما تكون غير واضحة، إلا أن المستخدمين يحددون الطريقة الدقيقة لاستخدام الذكاء الاصطناعي. إن محاسبة المستخدمين على مسؤوليتهم ستخلق ضغطًا قويًا، مما يدفع الناس لاستخدام الذكاء الاصطناعي بالطريقة التي أعتقد أنها صحيحة: التركيز على بناء مجموعات ميكانيكية للتفكير البشري بدلاً من إنشاء أشكال جديدة من الحياة الذكية المستدامة. الأول ستستجيب بانتظام لنوايا المستخدم، وبالتالي لن يؤدي إلى أفعال كارثية ما لم يرغب المستخدم في ذلك. والثاني يحمل أكبر المخاطر، وهو احتمال أن يفقد السيطرة ويولد سيناريو "فقدان السيطرة على الذكاء الاصطناعي" الكلاسيكي. ومن الفوائد الأخرى لإلقاء المسؤولية بالقرب من نقطة الاستخدام النهائية هو أنه يقلل إلى الحد الأدنى من خطر أن تؤدي المسؤولية إلى اتخاذ الناس إجراءات ضارة في مجالات أخرى، مثل الإغلاق، واعرف عميلك، والمراقبة، وتواطؤ الدولة/الشركات للحد من المستخدمين بشكل سري، مثل رفض البنوك تقديم الخدمة لبعض العملاء، مما يستبعد مساحات شاسعة من العالم.

![فيتاليك: كيف تربط اللامركزية التسارعية بين العملات المشفرة والذكاء الاصطناعي؟](https://img-cdn.gateio.im/webp-social/moments-bbfd388fc37072f272c62129923df866.webp(

هناك وجهة نظر كلاسيكية تعارض إلقاء اللوم فقط على المستخدمين: قد يكون المستخدمون أشخاصًا عاديين، ليس لديهم الكثير من المال، وقد يكونون مجهولين، مما يعني أنه لا يمكن لأحد أن يتحمل فعليًا تكاليف الأضرار الكارثية. قد تكون هذه الفكرة مبالغًا فيها: حتى لو كان بعض المستخدمين صغيرين جدًا لتحمل المسؤولية، فإن العملاء العاديين لمطوري الذكاء الاصطناعي ليسوا كذلك، لذلك لا يزال لدى مطوري الذكاء الاصطناعي حافز لبناء منتجات يمكن أن تجعل المستخدمين واثقين من أنهم لن يواجهوا مخاطر مسؤولية عالية. بمعنى آخر، لا يزال هذا وجهة نظر صحيحة تحتاج إلى معالجة. تحتاج إلى تحفيز شخص لديه موارد في الأنبوب لاتخاذ التدابير المناسبة، وموزعو البرامج والمطورون هم أهداف سهلة، لا يزال لديهم تأثير كبير على أمان النموذج.

يبدو أن مسؤولية المطورين معقولة. إحدى المخاوف الشائعة هي أنها لا تعمل على النماذج مفتوحة المصدر، لكن يبدو أن هذا يمكن إدارته، خاصةً لأن أقوى النماذج من المحتمل أن تكون مغلقة المصدر ) إذا كانت النتائج مفتوحة المصدر، فبينما قد لا تكون مسؤولية المطورين مفيدة للغاية في النهاية، فإنها لن تسبب أيضًا الكثير من الضرر ). توجد نفس المخاوف بشأن مسؤولية المطورين ( على الرغم من أنه بالنسبة للنماذج مفتوحة المصدر، هناك بعض العوائق التي تتطلب ضبط النموذج للقيام ببعض الأمور التي لم تكن مسموحة في الأصل )، ولكن نفس الحجج المعاكسة تنطبق. كقاعدة عامة، فرض "ضريبة" على السيطرة يعني أساسًا "يمكنك بناء شيء لا يمكنك السيطرة عليه، أو يمكنك بناء شيء يمكنك السيطرة عليه، لكن إذا بنيت شيئًا يمكنك السيطرة عليه، فيجب تخصيص 20% من حقوق السيطرة لأغراضنا"، يبدو أن هذا هو الموقف المعقول الذي يجب أن تتبناه الأنظمة القانونية.

فيتاليك الجديد: كيف تربط العملات المشفرة بالذكاء الاصطناعي؟

فكرة يبدو أنها لم تُستكشف بشكل كامل هي إلقاء اللوم على المشاركين الآخرين في الأنابيب، الذين من المرجح أن يمتلكوا موارد كافية. فكرة تتماشى بشكل جيد مع مفهوم d/acc هي محاسبة أصحاب أو مشغلي أي جهاز يتم اختراقه ( من قبل الذكاء الاصطناعي أثناء تنفيذ بعض الأعمال الضارة الكارثية. سيخلق هذا حافزًا واسعًا جدًا يدفع الناس إلى بذل الجهود لجعل العالم )، وخاصة في مجالات الحوسبة والبيولوجيا (، أكثر أمانًا قدر الإمكان.

الاستراتيجية 2: زر "التوقف الناعم" العالمي على الأجهزة الكبيرة الحجم

إذا كنت متأكدًا من أننا بحاجة إلى تدابير "أكثر قوة" من قواعد المسؤولية، فسأختار هذه الاستراتيجية. الهدف هو أن تكون لدينا القدرة على تقليل القدرة الحاسوبية المتاحة عالميًا بنحو 90%-99% في الأوقات الحرجة، ولمدة تتراوح بين 1-2 سنة، من أجل منح البشرية المزيد من الوقت للاستعداد. يجب ألا يتم المبالغة في تقدير قيمة 1-2 سنة: "الوضع الحربي" لمدة عام واحد يمكن أن يعادل بسهولة مائة عام من العمل العادي في حالة من الرضا. تم بالفعل استكشاف طرق لتحقيق "التوقف"، بما في ذلك بعض الاقتراحات المحددة، مثل المطالبة بتسجيل الأجهزة والتحقق من المواقع.

طريقة أكثر تقدمًا هي استخدام أساليب تشفير ذكية: على سبيل المثال، يمكن تزويد الأجهزة الصناعية على نطاق ) ولكن غير المخصصة للاستهلاك ( بشريحة موثوقة، ولا يُسمح لها بالاستمرار في العمل إلا بعد الحصول على توقيع 3/3 من مؤسسات دولية رئيسية ) بما في ذلك هيئة غير عسكرية واحدة على الأقل ( كل أسبوع. ستتعلق هذه التوقيعات بالأجهزة ) وإذا لزم الأمر، يمكننا حتى المطالبة بنشر إثباتات المعرفة الصفرية على blockchain (، لذلك سيكون الأمر إما بالكامل أو لا شيء: لا توجد طريقة فعلية لتفويض جهاز للاستمرار في العمل دون تفويض جميع الأجهزة الأخرى.

يبدو أن هذا "يتماشى مع المتطلبات" من حيث تعظيم الفوائد وتقليل المخاطر:

  • هذه هي
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • 2
  • مشاركة
تعليق
0/400
Ser_APY_2000vip
· منذ 15 س
نظرة واحدة على النص المائي ، تجميل عميق خالص
شاهد النسخة الأصليةرد0
Lonely_Validatorvip
· منذ 15 س
أليس من الجيد الدفاع والرد؟
شاهد النسخة الأصليةرد0
  • تثبيت