d/acc birinci yıl: Savunma hızlandırmanın ilerlemesi ve AI denetimi üzerine düşünceler

d/acc: Bir yıl sonrası için değerlendirme

Geçen yıl, teknoloji optimizmi hakkında bir makale yazdım, teknolojiyi olan tutkum ve getirebileceği büyük faydalar üzerinde durdum. Aynı zamanda, özellikle süper zeki AI ve onun getirebileceği yıkıcı riskler veya geri dönüşü olmayan güç kaybı konusunda bazı sorunlara karşı ihtiyatlı bir tutum sergiledim.

Makalenin temel görüşü, merkeziyetsiz, demokratik ve farklılaştırılmış bir savunucu hızlandırma fikrini teşvik etmektir. Hem teknolojik gelişimi hızlandırmak hem de yıkıcı yetenekler yerine savunma yeteneklerini artırmaya odaklanan teknolojilere yönelmek gerekmektedir. Gücün dağıtılmasına yönelik çabalar, azınlık elitlerin herkesin neyin doğru neyin yanlış olduğunu belirlemesini önlemelidir. Savunma modeli, Orta Çağ feodal lordlarının kaleleri yerine, demokratik İsviçre gibi olmalıdır.

Bir yıl boyunca, bu fikirler önemli bir gelişim gösterdi. Bu görüşleri "80,000 saat" platformunda paylaştım, çoğu olumlu geri dönüş aldım, bazı eleştiriler de oldu. Bu çalışma somut sonuçlar verdi: doğrulanabilir açık kaynak aşı alanında ilerleme kaydedildi; insanlar sağlıklı iç hava değerinin daha fazla farkına vardı; "topluluk notları" olumlu bir rol oynamaya devam ediyor; tahmin piyasası bilgi aracı olarak bir atılım yılı yaşıyor; sıfır bilgi kanıtları hükümet kimlik tespiti ve sosyal medya alanında uygulanıyor; açık kaynak görüntüleme araçları tıp ve beyin-bilgisayar arayüzü alanında kullanılmaya başlandı, vb.

Geçen sonbahar, ilk önemli d/acc etkinliğimizi düzenledik: "d/acc keşif günü" ( d/aDDy ), d/acc'nin çeşitli alanlarından ( biyoloji, fizik, ağ, bilgi savunması ve sinir teknolojileri ) konuşmacılarını bir araya getirdi. Bu teknolojilere uzun süre adanmış insanlar birbirlerinin çalışmalarını daha iyi anlayabiliyorlar, dışarıdan gelenler de Ethereum ve kripto para gelişimini teşvik eden değerlerin daha geniş bir dünyaya yayılabileceğinin daha fazla farkında olmaya başlıyor.

Vitalik yeni yazısı: Merkeziyetsiz hızlandırıcılık, kripto paralar ve AI nasıl bir araya geliyor?

d/acc'nin İçeriği ve Dışarıdaki Anlamı

d/acc'nin temel düşüncesi: merkeziyetsizlik, demokrasi ve farklılaştırılmış savunmacı hızlandırmadır. Saldırı ve savunma dengesini savunma lehine eğebilecek bir teknoloji inşa etmek ve uygulama sürecinde daha fazla gücü merkezi otoritelere vermeye bağımlı olmamak. Bu iki yön birbirine sıkı sıkıya bağlıdır: Herhangi bir merkeziyetsiz, demokratik veya özgür siyasi yapı, savunmanın kolay bir şekilde uygulanabildiği durumlarda genellikle gelişirken, savunmanın zor olduğu durumlarda zorluklarla karşılaşır.

Merkeziyetsizlik, savunuculuk ve hızın önemünü anlamanın ve aynı zamanda uygulamanın bir yolu, bunları bu üç alandan herhangi birinin terk edilmesiyle ortaya çıkan kavramlarla karşılaştırmaktır:

  1. Merkeziyetsiz hızlandırma, ancak "farklılaşmış savunma" kısmını göz ardı ediyor
  2. Farklılaştırılmış savunma hızlandırıldı, ancak "merkeziyetsizlik ve demokrasi" göz ardı edildi.
  3. Merkeziyetsiz savunma, ancak hızlanmayı dışlama

Vitalik yeni makale: Merkeziyetsiz hızlandırıcılık, kripto para ve AI nasıl bir araya geliyor?

d/acc aracılığıyla aşağıdaki hedeflere ulaşmayı taahhüt ediyoruz:

  • Günümüz dünyasının giderek kabileleşen eğilimlerinde prensipleri korumak, belirli şeyleri inşa etmek ve dünyayı daha güvenli ve güzel hale getirmek.

  • Üstel teknoloji ilerlemesinin, dünyanın son derece tuhaf hale geleceğini ve insanlığın evrendeki "izlerinin" sürekli artacağını anlamak gerekir. Kırılgan şeyleri koruma kabiliyetimizin sürekli olarak artması gerekmektedir; tek yol ileriye doğru cesurca adım atmaktır.

  • Her şeyi kontrol eden "iyi insanlar ( veya iyi AI )" varsayımına dayanmayan, gerçekten koruyabilecek teknolojiler inşa etmek. Bu hedefe, inşa etmek ve korumak için doğal olarak yıkım için kullanmaktan daha etkili olan araçlar oluşturarak ulaşmayı amaçlıyoruz.

d/acc'nin bir başka bakış açısını düşünmek, 21. yüzyılın 2000'li yıllarının sonlarındaki Avrupa Pirate Party hareketinin çerçevesine geri dönmek: güçlendirme. Amacımız, insan eylemliliğini koruyabilen bir dünya inşa etmek, olumsuz özgürlüğü sağlamak, yani diğerlerinin ( - ister sıradan vatandaşlar, ister hükümetler, ister süper zeki robotlar ) - kendi kaderimizi şekillendirme yeteneğimize aktif müdahalede bulunmasını önlemektir; aynı zamanda, olumlu özgürlüğü sağlamak, yani bu yeteneği uygulamak için bilgi ve kaynaklara sahip olmamızı garanti etmektir.

Vitalik yeni makale: Merkeziyetsiz hızlandırma, kripto para ve AI nasıl bir araya geliyor?

Zor Sorun: AI Güvenliği, Acil Zaman Çizgisi ve Düzenleme Dilemmaları

Geçen yıl makaleme gelen en ikna edici karşıt görüş AI güvenlik topluluğundan geldi. Argümanı şöyleydi: "Elbette, eğer güçlü AI geliştirmek için yarım yüzyılımız olursa, bu yararlı şeyleri inşa etmeye odaklanabiliriz. Ama gerçekte, görünüşe göre genel AI'ya ulaşmak için sadece üç yılımız var, ardından süper zekaya ulaşmak için başka üç yıl daha. Bu nedenle, dünyayı yok olmaktan veya başka bir şekilde geri dönüşü olmayan bir duruma düşürmek istemiyorsak, yalnızca yararlı teknolojilerin gelişimini hızlandırmakla kalmamalı, aynı zamanda zararlı teknolojilerin gelişimini yavaşlatmalıyız. Bu da, güç sahiplerini kızdırabilecek güçlü düzenleyici önlemler gerektiriyor."

Yeni düzenlemelere temkinli yaklaşmanın nedenleri:

Geçen yıl, temel AI düzenleme önerisi Kaliforniya'nın SB-1047 yasasıydı. Bu yasa, en güçlü modellerin ( eğitim maliyeti 100 milyon doları veya ince ayar maliyeti 10 milyon doları aştığında ) geliştiricilerin yayınlamadan önce bir dizi güvenlik testi önlemi almasını gerektiriyor. Eğer AI modeli geliştiricileri yeterince dikkatli davranmazsa, sorumlulukları olacaktır. Birçok eleştirmen bu yasanın "açık kaynak için bir tehdit oluşturduğunu" düşünüyor; ben buna katılmıyorum çünkü maliyet eşiği yalnızca en güçlü modelleri etkiliyor. Ancak geçmişe baktığımda, bu yasada daha ciddi bir sorun olduğunu düşünüyorum: Çoğu düzenleme gibi, mevcut duruma aşırı uyum sağlıyor. Eğitim maliyetine duyulan ilgi, yeni teknolojilerle karşı karşıya kalındığında zayıf olduğu kanıtlanmıştır: Son zamanlardaki en gelişmiş DeepSeek v3 modelinin eğitim maliyeti yalnızca 6 milyon dolardı ve o1 gibi yeni modellerde maliyet genellikle daha fazla eğitimden çıkarak çıkarım aşamasına kaydırılıyor.

Vitalik yeni makale: Merkeziyetsiz hızlandırıcılık, kripto para birimleri ve AI nasıl etkileşiyor?

AI süper zekasının yok oluş senaryolarına en çok neden olabilecek aktörler:

Aslında, AI süper zekasının yok oluş senaryolarından en çok sorumlu olacak aktörlerin ordular olduğu muhtemeldir. Geçtiğimiz yarım yüzyılda biyogüvenlik ( ve daha önceki dönemlerde ) gördüğümüz gibi, ordular bazı korkunç eylemleri almaktan çekinmiyor ve hatalar yapmaya oldukça yatkınlar. Günümüzde, AI'nın askeri alanlardaki kullanımı hızla gelişiyor (, örneğin Ukrayna ve Gazze bölgesindeki kullanımları ). Ayrıca, herhangi bir hükümetin geçirdiği güvenlik düzenlemeleri, varsayılan olarak kendi ordusunu ve ordularla yakın işbirliği içindeki şirketleri muaf tutacaktır.

Stratejiler:

Yine de, bu argümanlar bizi çaresiz bırakacak bir neden değildir. Aksine, onları bir rehber olarak alabiliriz ve bu endişeleri en az seviyeye indiren kuralları oluşturmaya çalışabiliriz.

Strateji 1: Sorumluluk

Eğer birinin davranışı bir şekilde yasaya tabi tutulabilir bir zarara yol açtıysa, dava edilebilirler. Bu, ordudan ve diğer "yasanın üzerinde olan" aktörlerden kaynaklanan risk sorununu çözmez, ancak aşırı uyumdan kaçınmak için oldukça genel bir yaklaşımdır; bu nedenle, serbest piyasa ekonomisine eğilimli ekonomistler genellikle bu uygulamayı destekler.

Şu ana kadar dikkate alınan ana sorumluluk hedefleri aşağıdaki gibidir:

  • Kullanıcı: AI'yı kullanan kişi.
  • Dağıtıcı: Kullanıcılara AI hizmeti sunan aracıdır.
  • Geliştirici: AI'yi inşa eden kişi.

Kullanıcıyı sorumlu tutmak, teşvik mekanizmasına en uygun olanıdır. Modelin geliştirilme şekli ile nihai kullanım şekli arasındaki bağlantı genellikle belirsiz olsa da, kullanıcılar AI'nın belirli kullanım şeklini belirler. Kullanıcılara sorumluluk yüklenmesi, insanların bence doğru olan şekilde AI'yı kullanmaları için güçlü bir baskı yaratır: İnsan düşüncesine mekanik bir yapı inşa etmeye odaklanmak, yeni öz kendini sürdüren zeki yaşam formları yaratmak yerine. İlk durumda, kullanıcı niyetine düzenli olarak yanıt verir, bu nedenle kullanıcı istemediği sürece felaketçi eylemlerle sonuçlanmaz. İkinci durumda ise en büyük risk, kontrolün kaybedilmesi ve klasik "AI kontrolsüzlüğü" senaryosunu tetiklemesidir. Sorumluluğun mümkün olduğunca nihai kullanım noktasına yakın tutulmasının bir diğer faydası, sorumluluğun insanların diğer alanlarda zararlı eylemler gerçekleştirme riskini en aza indirmesidir ( örneğin kapalı kaynak, müşterinizi tanıyın ( KYC ) ve izleme, devlet/şirket işbirlikleriyle kullanıcıları gizli olarak kısıtlamak, bazı müşterilere hizmet vermeyi reddeden bankalar gibi, dünyadaki geniş alanları dışlamak ).

Vitalik yeni makale: Merkeziyetsiz hızlandırıcılık kripto para ve AI'yi nasıl etkiliyor?

Kullanıcıların sorumluluğunun yalnızca kendilerine atfedilmesine karşı klasik bir görüş vardır: Kullanıcılar sıradan bireyler olabilir, çok fazla paraları olmayabilir ve hatta anonim olabilirler, bu da kimsenin gerçekten felaket zararlarını üstlenemeyeceği anlamına gelir. Bu görüş abartılmış olabilir: Bazı kullanıcılar sorumluluk almak için çok küçük olsa da, AI geliştiricilerinin normal müşterileri öyle değildir, bu nedenle AI geliştiricileri, kullanıcıların yüksek sorumluluk riskiyle karşılaşmayacaklarına dair güvence verecek ürünler oluşturmak için hala teşvik alacaklardır. Yani, bu hâlâ ele alınması gereken geçerli bir görüş. Kaynakları olan birinin uygun tedbirler alması için bir teşvik sağlamanız gerekiyor ve dağıtıcılar ile geliştiriciler kolayca bulunabilen hedeflerdir, çünkü hala modelin güvenliği üzerinde büyük bir etkiye sahiptirler.

Dağıtıcıların sorumluluğu mantıklı görünüyor. Yaygın bir endişe, bunun açık kaynak modelleri için çalışmadığıdır, ancak bu yönetilebilir görünüyor, özellikle de en güçlü modellerin kapalı kaynak olma olasılığının yüksek olduğu göz önüne alındığında. Eğer sonuçlar açık kaynaksa, o zaman dağıtıcı sorumluluğu nihayetinde pek faydalı olmayabilir, ancak büyük bir zarar da vermeyecektir. Geliştirici sorumluluğu için de aynı endişeler vardır. Açık kaynak modelleri için, modeli, aslında izin verilmeyen bazı şeyleri yapması için ince ayar yapma gerekliliği belirli bir engel teşkil etmektedir, ancak aynı itiraz nedenleri de geçerlidir. Genel bir ilke olarak, kontrol üzerinde bir "vergi" uygulanması, esasen "kontrol edemediğiniz bir şey inşa edebilirsiniz ya da kontrol edebileceğiniz bir şey inşa edebilirsiniz, ancak kontrol edebileceğiniz bir şey inşa ederseniz, o zaman kontrolün %20'si bizim amacımız için kullanılmalıdır" demektir; bu, hukuki sistemin olması gereken makul bir duruşu gibi görünmektedir.

Vitalik yeni makale: Merkeziyetsiz hızlandırıcılık kripto para birimleri ve AI nasıl etkiliyor?

Henüz tam olarak keşfedilmemiş gibi görünen bir fikir, boru hattındaki diğer aktörlere sorumluluk yüklemektir; bu aktörlerin yeterli kaynaklara sahip olma olasılığı daha yüksektir. d/acc anlayışıyla çok uyumlu bir fikir, AI'nın belirli yıkıcı zararlı eylemler gerçekleştirdiği süreçte ( gibi herhangi bir cihazın sahibi veya operatörünü sorumlu tutmaktır. Bu, insanları dünya ), özellikle de bilgi işlem ve biyoloji alanında ( altyapısını mümkün olduğunca güvenli hale getirmek için çaba göstermeye teşvik eden çok geniş bir teşvik yaratacaktır.

Strateji 2: Endüstriyel ölçekli donanımda küresel "yumuşak duraklatma" butonu

Eğer sorumluluk kurallarından daha "güçlü" önlemler almamız gerektiğine kesin olarak inanıyorsam, bu stratejiyi seçerim. Hedef, kritik dönemlerde küresel kullanılabilir hesaplama gücünü yaklaşık %90-99 oranında azaltma yeteneğine sahip olmaktır, bu da 1-2 yıl boyunca devam edecek, insanlığa daha fazla hazırlık süresi kazandıracaktır. 1-2 yılın değeri abartılmamalıdır: bir yıl süren "savaş zamanı modu" kendini beğenmişlik içinde yüz yıl süren normal çalışmaya eşdeğer olabilir. "Duraklatma" yöntemlerinin uygulanması üzerinde araştırmalar yapılmakta ve donanım kaydı ve konum doğrulama gibi bazı somut öneriler de dahil edilmektedir.

Daha ileri bir yöntem, ustaca şifreleme teknikleri kullanmaktır: örneğin, endüstriyel ölçekte üretilen ) ancak tüketici seviyesinde olmayan ( AI donanımı, sadece her hafta en az bir askeri olmayan bağlı kuruluştan ), ana uluslararası kuruluşlardan ( gelen 3/3 imzayı aldığında çalışmaya devam etmesine izin veren güvenilir bir donanım çipi ile donatılabilir. Bu imzalar cihazdan bağımsız olacaktır ), gerekirse blockchain üzerinde sıfır bilgi kanıtları ( yayınlamasını bile talep edebiliriz, bu nedenle bu ya tamamen evet ya da tamamen hayır olacaktır: bir cihazın çalışmaya devam etmesi için diğer tüm cihazların yetkilendirilmesi olmadan mevcut bir yetkilendirme yöntemi yoktur.

Bu, faydayı maksimize etme ve riski minimize etme açısından "gereksinimleri karşılıyor" gibi görünüyor:

  • Bu bir
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 2
  • Share
Comment
0/400
Ser_APY_2000vip
· 15h ago
Bir bakışta su yazısı, saf giyim derin
View OriginalReply0
Lonely_Validatorvip
· 15h ago
Savunma karşı saldırı güzel değil mi?
View OriginalReply0
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)