d/acc: Bir Yılın Gözden Geçirilmesi ve Geleceğe Bakış
Geçen yıl, teknoloji iyimserliği hakkında bir makale yayımladım, teknolojinin genel heyecanı ve teknolojinin sağlayabileceği büyük faydalar üzerine düşüncelerimi açıkladım. Aynı zamanda, özellikle süper zeki yapay zeka ve bunun getirebileceği yok edici riskler veya insanlığın geri dönüşü olmayan bir şekilde güç kaybetme riski hakkında bazı özel sorunlar konusunda temkinli bir tutum sergiledim.
O makalenin temel görüşü, merkeziyetsiz, demokratik ve farklılaştırılmış bir savunma hızlandırma anlayışını savunmaktır. Teknoloji gelişimini hızlandırmalıyız, ancak saldırganlık yerine savunma yeteneğini artıran teknolojilere seçici bir şekilde odaklanmalıyız ve gücü dağıtma çabası içinde olmalıyız, güçleri azınlık elitlerin elinde toplamak yerine. Savunma modeli, feodalizm döneminin lordları ve kaleleri yerine, demokratik İsviçre gibi olmalıdır.
Geçen yıl bu fikirler önemli bir gelişim ve olgunlaşma sürecinden geçti. Bu fikirleri "80,000 saat" platformunda paylaştım, birçok geri bildirim aldım, çoğu olumlu, elbette bazı eleştiriler de oldu.
Bu çalışma kendisi de somut ilerlemeler kaydetti: doğrulanabilir açık kaynak aşı alanında atılımlar yapıldı; insanların sağlıklı iç hava konusundaki farkındalığı sürekli derinleşiyor; "topluluk notları" olumlu bir rol oynamaya devam ediyor; tahmin piyasaları bilgi aracı olarak bir sıçrama yılına girdi; sıfır bilgi kanıtları hükümet kimlik tanıma ve sosyal medya alanında kullanılmaya başlandı; açık kaynak görüntüleme araçları tıp ve beyin-bilgisayar arayüzü alanında ilerleme kaydetti, vb.
Geçen sonbaharda, ilk önemli d/acc etkinliğimizi düzenledik: "d/acc Keşif Günü". Etkinlik, d/acc'nin çeşitli temel alanlarından ( biyoloji, fizik, ağ, bilgi savunması ve sinir teknolojileri ) konularında konuşmacıları bir araya getirdi ve tam bir gün sürdü. Bu teknolojilere uzun süre kendini adamış olan insanlar, birbirlerinin çalışmalarını daha fazla tanımaya başladı ve dışarıdan gelenler de bu daha büyük vizyonun farkına varmaya başladı: Ethereum ve kripto paraların gelişimini teşvik eden aynı değerlerin daha geniş bir dünyaya yayılabileceği.
d/acc'nin kapsamı ve içeriği
d/acc'nin temel fikri çok basit: merkeziyetsizlik, demokrasi ve farklılaşmış savunma hızlandırması. Savunmayı savunma dengesinin lehine çevirecek teknolojiler geliştirmek ve uygulama sürecinde daha fazla gücü merkezi otoritelere devretmemek. Bu iki yön arasında içsel bir bağlantı vardır: Herhangi bir merkeziyetsiz, demokratik veya özgür siyasi yapı, savunmanın kolayca uygulanabildiği durumlarda genellikle gelişirken, savunmanın zorluklarla karşılaştığı durumlarda ciddi zorluklarla karşılaşır.
Merkeziyetsizlik, savunuculuk ve hızlanmanın önemli anlamlarını aynı anda gerçekleştirmeye çalışmanın bir yolu, bunları bu üç alandan herhangi birinin terk edilmesiyle ortaya çıkan kavramlarla karşılaştırmaktır.
Merkeziyetsizleşme hızlanıyor, ancak "farklılaştırılmış savunma" kısmı göz ardı ediliyor: bu, etkili bir hızlandırıcı olmayı (e/acc), ancak aynı zamanda merkeziyetsizleşmeyi hedeflemeye benziyor. Bu yaklaşım, belirli grupların küresel insanlığa diktatörlük uygulama riskini önleyebilir, ancak potansiyel yapısal sorunları çözmede yetersiz kalıyor: saldırgan bir ortamda, her zaman felaketin gerçekleşme riski bulunmaktadır veya birisi kendisini koruyucu olarak konumlandırabilir ve kalıcı olarak iktidar pozisyonunu işgal edebilir.
Farklılaştırılmış savunma hızlandırılır, ancak "merkeziyetsizlik ve demokrasi" göz ardı edilir: Güvenlik hedeflerine ulaşmak için merkezi kontrolü kabul etmek, bazı insanlar için her zaman çekici olmuştur. Ancak, merkezi kontrolün bir derece sorunu vardır. Bu yaklaşımın riski açıktır, bu da merkezlerin kendisinin genellikle risk kaynağı haline gelmesidir. Bunu COVID-19 pandemisi sırasında gördük.
Merkeziyetsiz savunma, ancak ivmeyi dışlama: Bu esasen teknolojik ilerlemeyi yavaşlatma veya ekonomik durgunluğu teşvik etme çabasıdır. Bu strateji, çift zorlukla karşı karşıyadır: Öncelikle, genel olarak teknoloji ve ekonomik büyüme insanlık için son derece faydalıdır, herhangi bir gecikme ölçülemez maliyetler getirecektir; ikincisi, otoriter olmayan bir dünyada duraksamak istikrarsızdır.
d/acc üzerinden, aşağıdaki hedeflere ulaşmayı taahhüt ediyoruz:
Günümüz dünyasında artan kabileleşme eğiliminde prensiplere sadık kalmak, sadece kör bir şekilde çeşitli şeyler inşa etmek yerine.
Çarpan teknolojik ilerlemelerin farkında olmak, dünyanın son derece garip hale geleceği ve insanlığın evrendeki genel "izinin" mutlaka sürekli artacağı anlamına geliyor. Kırılgan hayvanları, bitkileri ve insan gruplarını zarardan koruma yeteneğimizin sürekli olarak artması gerekiyor ve tek yol cesurca ileriye doğru gitmek.
Gerçekten koruyabilecek bir teknoloji inşa etmek, "iyi insanlar ( veya iyi AI ) her şeyi kontrol eder" varsayımına dayanmamak. Bu hedefe, inşa etmek ve korumak için doğal olarak yıkmaktan daha etkili olan araçlar inşa ederek ulaşmayı amaçlıyoruz.
D/acc'ye başka bir bakış açısı, 21. yüzyılın 2000'li yıllarının sonlarında Avrupa'daki Korsan Partisi hareketinin çerçevesine geri dönmektir: yetkilendirme. Amacımız, insan iradesini koruyabilen bir dünya inşa etmek, olumsuz özgürlük olan, başkalarının (, ister sıradan vatandaşlar, ister hükümetler, ister süper zeki robotlar ) olsun, kendi kaderimizi şekillendirme yeteneğimize aktif bir müdahalede bulunmasını önlemektir, aynı zamanda olumlu özgürlük sağlamak, yani bu yeteneği uygulamak için bilgi ve kaynaklara sahip olmamızı temin etmektir.
Üçüncü Boyut: Hayatta Kalma ve Refahın Sinerjik Gelişimi
Geçen yılki yazımda, d/acc özellikle savunma teknolojilerine odaklandı: fiziksel savunma, biyolojik savunma, siber savunma ve bilgi savunması. Ancak, salt merkeziyetsiz savunma büyük bir dünya inşa etmek için yeterli değildir: ayrıca yeni merkeziyetsizlik ve güvenlik elde ettikten sonra insanlığın hangi hedeflere ulaşabileceğine dair vizyoner bir olumlu bakış açısına ihtiyacımız var.
Her alanda, belirli bir alanda "hayatta kalmamıza" yardımcı olan bilimlerin, düşüncelerin ve araçların, "refahımızı" artırmamıza yardımcı olan bilimlerle, düşüncelerle ve araçlarla yakın bir ilişkiye sahip olduğu tutarlı bir model bulunmaktadır. İşte bazı somut örnekler:
Son zamanlarda yapılan birçok COVID-19 ile ilgili araştırma, virüsün vücutta sürekli varlığına odaklanıyor; bu, uzun COVID sorunlarının temel mekanizması olarak görülüyor. Ayrıca, virüsün sürekli varlığının Alzheimer hastalığının etiyolojik bir faktörü olabileceğine dair işaretler de var. Eğer bu görüş doğruysa, tüm doku türlerindeki virüsün sürekli varlık sorununu çözmek, belki de yaşlanma sorununu aşmanın anahtarı olacaktır.
Düşük maliyetli ve Openwater gibi mikro görüntüleme araçları, mikro pıhtılar, virüslerin varlığı, kanser gibi alanlarda güçlü bir potansiyele sahiptir ve aynı zamanda beyin-bilgisayar arayüzü alanında da uygulanabilir.
Yüksek derecede düşmanca ortamlara uygun sosyal araçların geliştirilmesini teşvik etmek (, topluluk notları ) ve makul işbirliği ortamlarının sosyal araçları (, Pol.is ) gibi fikirlerle son derece benzerdir.
Tahmin piyasası, yüksek işbirliği ve yüksek karşıtlık ortamlarında önemli bir değere sahiptir.
Sıfır bilgi kanıtları ve benzeri teknolojiler, gizliliği korurken veriler üzerinde hesaplama yaparak hem bilimsel araştırmalar gibi faydalı işler için kullanılabilecek veri miktarını artırmakta hem de gizlilik koruma sağlamakta.
Güneş enerjisi ve piller, bir sonraki temiz ekonomi büyümesini teşvik etme açısından son derece önemlidir ve aynı zamanda merkeziyetsizlik ve fiziksel esneklik konularında da mükemmel bir performans sergilemektedir.
Bunun yanı sıra, farklı disiplin alanları arasında önemli bir karşılıklı bağımlılık ilişkisi de vardır:
Beyin-bilgisayar arayüzü, düşüncelerimizin ve niyetlerimizin daha hassas bir şekilde iletişim kurmasına olanak tanıdığı için bilgi savunma ve işbirliği teknolojisi olarak hayati öneme sahiptir. Beyin-bilgisayar arayüzü sadece robotlarla bilinç arasında bir bağlantı değildir: aynı zamanda bilinç-robot-bilinç etkileşimi de olabilir.
Birçok biyoteknoloji, bilgi paylaşımına dayanır ve birçok durumda insanlar yalnızca bilginin belirli bir uygulama için kullanılacağından emin olduklarında paylaşmaya istekli olurlar. Bu, gizlilik teknolojilerine (, sıfır bilgi kanıtları, homomorfik şifreleme, karıştırma teknolojileri gibi ) dayanır.
İşbirliği teknolojisi, diğer herhangi bir teknik alandaki finansmanı koordine etmek için kullanılabilir.
Zor Sorun: AI Güvenliği, Acil Zaman Çizgisi ve Düzenleme Çelişkisi
Geçen yıl makalemdeki en ikna edici karşıt görüşler AI güvenlik topluluğundan geldi. Argümanları şuydu: "Elbette, eğer güçlü AI geliştirmek için yarım yüzyılımız olursa, bu yararlı şeyleri inşa etmeye odaklanabiliriz. Ama gerçekte, görünüşe göre genel AI'ya ulaşmak için yalnızca üç yılımız ve ardından süper zekaya ulaşmak için de üç yılımız var. Bu nedenle, eğer dünyayı yok olmanın eşiğine getirmek ya da başka bir şekilde geri dönüşü olmayan bir duruma sokmak istemiyorsak, yalnızca yararlı teknolojilerin gelişimini hızlandırmakla kalmamalı, aynı zamanda zararlı teknolojilerin gelişimini de yavaşlatmalıyız; bu da belki de güç odaklarını kızdıracak güçlü düzenleyici önlemler gerektiriyor." Geçen yılki yazımda, riskli süper zeka formlarını inşa etmemek için belirsiz bir çağrıda bulunmaktan başka, aslında "zararlı teknolojilerin gelişimini yavaşlatma" konusunda herhangi bir spesifik strateji önermedim. Bu nedenle, burada bu soruyu doğrudan ele almak gerekli: Eğer en kötü senaryoda, AI riski çok yüksek ve zaman dilimi yalnızca beş yıl kadar kısaysa, hangi düzenleyici önlemleri desteklerim?
Yeni düzenlemeye temkinli yaklaşmanın nedenleri
Geçen yıl, ana AI düzenleme önerisi Kaliforniya'daki SB-1047 yasasıydı. SB-1047, en güçlü modellerin (, yani eğitim maliyeti 100 milyon doları aşan veya ince ayar maliyeti 10 milyon doları aşan modellerin ) geliştiricilerinin, yayınlamadan önce bir dizi güvenlik test önlemi almasını gerektiriyor. Ayrıca, AI modeli geliştiricileri yeterince dikkatli davranmazsa, onlara sorumluluk yükleniyor. Birçok eleştirmen bu yasanın "açık kaynağa tehdit oluşturduğunu" düşünüyor; buna katılmıyorum, çünkü maliyet eşiği yalnızca en güçlü modelleri etkiliyor: Llama3 modeli bile bu eşik altında olabilir. Ancak geçmişe baktığımda, bu yasada daha ciddi bir sorun olduğunu düşünüyorum: çoğu düzenleyici önlemde olduğu gibi, mevcut duruma aşırı bir uyum sağlıyor. Eğitim maliyetlerine odaklanmak, yeni teknolojilere karşı zayıf olduğunu kanıtladı: son zamanlardaki en gelişmiş DeepSeek v3 modelinin eğitim maliyeti yalnızca 6 milyon dolar ve o1 gibi yeni modellerde maliyetler genellikle eğitimden çıkarak çıkarım aşamasına kayıyor.
AI süper zekanın yok oluş senaryolarına en çok neden olabilecek aktörler
Aslında, AI süper zeka yok olma senaryolarına en çok neden olabilecek aktörler ordulardır. Geçtiğimiz yarım yüzyılda biyogüvenlik ( ve daha önceki dönemlerde ) tanık olduğumuz gibi, ordular korkunç eylemler gerçekleştirmeye istekli ve hata yapma olasılıkları oldukça yüksektir. Günümüzde, AI'nın askeri alandaki uygulamaları hızla gelişmektedir (, örneğin Ukrayna ve Gazze bölgesindeki uygulamalar ). Ayrıca, herhangi bir hükümet tarafından kabul edilen güvenlik düzenlemeleri, varsayılan olarak kendi orduları ve orduyla yakın işbirliği içinde olan şirketlerden muaf tutulmaktadır.
Strateji
Buna rağmen, bu argümanlar bizi çaresiz bırakacak nedenler değildir. Aksine, bunları rehber olarak alabilir ve bu endişeleri en az düzeye indiren kuralları oluşturmaya çalışabiliriz.
Strateji 1: Sorumluluk
Eğer birinin davranışı bir şekilde yasal olarak tazminat gerektiren zararlara neden olmuşsa, dava edilebilirler. Bu, ordudan ve diğer "yasanın üstündeki" aktörlerden kaynaklanan risk sorununu çözmez, ancak aşırı uyum sağlamaktan kaçınan oldukça genel bir yaklaşımdır; bu nedenle, serbest piyasa ekonomisine eğilimli ekonomistler genellikle bu uygulamayı destekler.
Şu ana kadar dikkate alınan ana sorumluluk hedefleri şunlardır:
Kullanıcı: AI'yi kullanan kişi.
Dağıtıcı: Kullanıcılara AI hizmeti sunan aracı.
Geliştirici: AI'yi inşa eden kişi.
Kullanıcıyı sorumlu tutmak, teşvik mekanizmasıyla en uyumlu olan gibi görünüyor. Modelin geliştirilme şekli ile nihai kullanım şekli arasındaki bağlantı genellikle belirsiz olsa da, kullanıcılar AI'nın spesifik kullanım şekillerini belirliyor. Kullanıcıları sorumlu tutmak, insanları AI'yı benim doğru bulduğum şekilde kullanmaları için güçlü bir baskı yaratır: İnsan zihnini mekanik bir takım olarak inşa etmeye odaklanmak, yeni bir benlik yaratmak yerine.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 Likes
Reward
9
9
Share
Comment
0/400
SmartContractWorker
· 2h ago
Hızlanmadan önce hayatta kal...
View OriginalReply0
CounterIndicator
· 07-12 21:59
Yine AI tehdit teorisinden bahsediyor.
View OriginalReply0
LiquidationTherapist
· 07-12 13:42
Sadece bir başka teknik idealist dalgası.
View OriginalReply0
MetaverseHermit
· 07-11 18:49
Saçma savunma yap, sadece boşver ve yat.
View OriginalReply0
APY追逐者
· 07-11 18:49
Merkezden uzaklaşmak, boşuna mı mücadele etmek?
View OriginalReply0
SocialFiQueen
· 07-11 18:49
Her şeyi görmek, söylemek ama söylememek.
View OriginalReply0
OfflineValidator
· 07-11 18:46
Merhaba, teknik bilgisi olanlar için zor değil, zor olan ise teknolojinin arkasındaki şeyleri anlamaktır.
d/acc birinci yıl: Savunmacı hızlandırma anlayışının evrimi ve zorlukları
d/acc: Bir Yılın Gözden Geçirilmesi ve Geleceğe Bakış
Geçen yıl, teknoloji iyimserliği hakkında bir makale yayımladım, teknolojinin genel heyecanı ve teknolojinin sağlayabileceği büyük faydalar üzerine düşüncelerimi açıkladım. Aynı zamanda, özellikle süper zeki yapay zeka ve bunun getirebileceği yok edici riskler veya insanlığın geri dönüşü olmayan bir şekilde güç kaybetme riski hakkında bazı özel sorunlar konusunda temkinli bir tutum sergiledim.
O makalenin temel görüşü, merkeziyetsiz, demokratik ve farklılaştırılmış bir savunma hızlandırma anlayışını savunmaktır. Teknoloji gelişimini hızlandırmalıyız, ancak saldırganlık yerine savunma yeteneğini artıran teknolojilere seçici bir şekilde odaklanmalıyız ve gücü dağıtma çabası içinde olmalıyız, güçleri azınlık elitlerin elinde toplamak yerine. Savunma modeli, feodalizm döneminin lordları ve kaleleri yerine, demokratik İsviçre gibi olmalıdır.
Geçen yıl bu fikirler önemli bir gelişim ve olgunlaşma sürecinden geçti. Bu fikirleri "80,000 saat" platformunda paylaştım, birçok geri bildirim aldım, çoğu olumlu, elbette bazı eleştiriler de oldu.
Bu çalışma kendisi de somut ilerlemeler kaydetti: doğrulanabilir açık kaynak aşı alanında atılımlar yapıldı; insanların sağlıklı iç hava konusundaki farkındalığı sürekli derinleşiyor; "topluluk notları" olumlu bir rol oynamaya devam ediyor; tahmin piyasaları bilgi aracı olarak bir sıçrama yılına girdi; sıfır bilgi kanıtları hükümet kimlik tanıma ve sosyal medya alanında kullanılmaya başlandı; açık kaynak görüntüleme araçları tıp ve beyin-bilgisayar arayüzü alanında ilerleme kaydetti, vb.
Geçen sonbaharda, ilk önemli d/acc etkinliğimizi düzenledik: "d/acc Keşif Günü". Etkinlik, d/acc'nin çeşitli temel alanlarından ( biyoloji, fizik, ağ, bilgi savunması ve sinir teknolojileri ) konularında konuşmacıları bir araya getirdi ve tam bir gün sürdü. Bu teknolojilere uzun süre kendini adamış olan insanlar, birbirlerinin çalışmalarını daha fazla tanımaya başladı ve dışarıdan gelenler de bu daha büyük vizyonun farkına varmaya başladı: Ethereum ve kripto paraların gelişimini teşvik eden aynı değerlerin daha geniş bir dünyaya yayılabileceği.
d/acc'nin kapsamı ve içeriği
d/acc'nin temel fikri çok basit: merkeziyetsizlik, demokrasi ve farklılaşmış savunma hızlandırması. Savunmayı savunma dengesinin lehine çevirecek teknolojiler geliştirmek ve uygulama sürecinde daha fazla gücü merkezi otoritelere devretmemek. Bu iki yön arasında içsel bir bağlantı vardır: Herhangi bir merkeziyetsiz, demokratik veya özgür siyasi yapı, savunmanın kolayca uygulanabildiği durumlarda genellikle gelişirken, savunmanın zorluklarla karşılaştığı durumlarda ciddi zorluklarla karşılaşır.
Merkeziyetsizlik, savunuculuk ve hızlanmanın önemli anlamlarını aynı anda gerçekleştirmeye çalışmanın bir yolu, bunları bu üç alandan herhangi birinin terk edilmesiyle ortaya çıkan kavramlarla karşılaştırmaktır.
Merkeziyetsizleşme hızlanıyor, ancak "farklılaştırılmış savunma" kısmı göz ardı ediliyor: bu, etkili bir hızlandırıcı olmayı (e/acc), ancak aynı zamanda merkeziyetsizleşmeyi hedeflemeye benziyor. Bu yaklaşım, belirli grupların küresel insanlığa diktatörlük uygulama riskini önleyebilir, ancak potansiyel yapısal sorunları çözmede yetersiz kalıyor: saldırgan bir ortamda, her zaman felaketin gerçekleşme riski bulunmaktadır veya birisi kendisini koruyucu olarak konumlandırabilir ve kalıcı olarak iktidar pozisyonunu işgal edebilir.
Farklılaştırılmış savunma hızlandırılır, ancak "merkeziyetsizlik ve demokrasi" göz ardı edilir: Güvenlik hedeflerine ulaşmak için merkezi kontrolü kabul etmek, bazı insanlar için her zaman çekici olmuştur. Ancak, merkezi kontrolün bir derece sorunu vardır. Bu yaklaşımın riski açıktır, bu da merkezlerin kendisinin genellikle risk kaynağı haline gelmesidir. Bunu COVID-19 pandemisi sırasında gördük.
Merkeziyetsiz savunma, ancak ivmeyi dışlama: Bu esasen teknolojik ilerlemeyi yavaşlatma veya ekonomik durgunluğu teşvik etme çabasıdır. Bu strateji, çift zorlukla karşı karşıyadır: Öncelikle, genel olarak teknoloji ve ekonomik büyüme insanlık için son derece faydalıdır, herhangi bir gecikme ölçülemez maliyetler getirecektir; ikincisi, otoriter olmayan bir dünyada duraksamak istikrarsızdır.
d/acc üzerinden, aşağıdaki hedeflere ulaşmayı taahhüt ediyoruz:
D/acc'ye başka bir bakış açısı, 21. yüzyılın 2000'li yıllarının sonlarında Avrupa'daki Korsan Partisi hareketinin çerçevesine geri dönmektir: yetkilendirme. Amacımız, insan iradesini koruyabilen bir dünya inşa etmek, olumsuz özgürlük olan, başkalarının (, ister sıradan vatandaşlar, ister hükümetler, ister süper zeki robotlar ) olsun, kendi kaderimizi şekillendirme yeteneğimize aktif bir müdahalede bulunmasını önlemektir, aynı zamanda olumlu özgürlük sağlamak, yani bu yeteneği uygulamak için bilgi ve kaynaklara sahip olmamızı temin etmektir.
Üçüncü Boyut: Hayatta Kalma ve Refahın Sinerjik Gelişimi
Geçen yılki yazımda, d/acc özellikle savunma teknolojilerine odaklandı: fiziksel savunma, biyolojik savunma, siber savunma ve bilgi savunması. Ancak, salt merkeziyetsiz savunma büyük bir dünya inşa etmek için yeterli değildir: ayrıca yeni merkeziyetsizlik ve güvenlik elde ettikten sonra insanlığın hangi hedeflere ulaşabileceğine dair vizyoner bir olumlu bakış açısına ihtiyacımız var.
Her alanda, belirli bir alanda "hayatta kalmamıza" yardımcı olan bilimlerin, düşüncelerin ve araçların, "refahımızı" artırmamıza yardımcı olan bilimlerle, düşüncelerle ve araçlarla yakın bir ilişkiye sahip olduğu tutarlı bir model bulunmaktadır. İşte bazı somut örnekler:
Son zamanlarda yapılan birçok COVID-19 ile ilgili araştırma, virüsün vücutta sürekli varlığına odaklanıyor; bu, uzun COVID sorunlarının temel mekanizması olarak görülüyor. Ayrıca, virüsün sürekli varlığının Alzheimer hastalığının etiyolojik bir faktörü olabileceğine dair işaretler de var. Eğer bu görüş doğruysa, tüm doku türlerindeki virüsün sürekli varlık sorununu çözmek, belki de yaşlanma sorununu aşmanın anahtarı olacaktır.
Düşük maliyetli ve Openwater gibi mikro görüntüleme araçları, mikro pıhtılar, virüslerin varlığı, kanser gibi alanlarda güçlü bir potansiyele sahiptir ve aynı zamanda beyin-bilgisayar arayüzü alanında da uygulanabilir.
Yüksek derecede düşmanca ortamlara uygun sosyal araçların geliştirilmesini teşvik etmek (, topluluk notları ) ve makul işbirliği ortamlarının sosyal araçları (, Pol.is ) gibi fikirlerle son derece benzerdir.
Tahmin piyasası, yüksek işbirliği ve yüksek karşıtlık ortamlarında önemli bir değere sahiptir.
Sıfır bilgi kanıtları ve benzeri teknolojiler, gizliliği korurken veriler üzerinde hesaplama yaparak hem bilimsel araştırmalar gibi faydalı işler için kullanılabilecek veri miktarını artırmakta hem de gizlilik koruma sağlamakta.
Güneş enerjisi ve piller, bir sonraki temiz ekonomi büyümesini teşvik etme açısından son derece önemlidir ve aynı zamanda merkeziyetsizlik ve fiziksel esneklik konularında da mükemmel bir performans sergilemektedir.
Bunun yanı sıra, farklı disiplin alanları arasında önemli bir karşılıklı bağımlılık ilişkisi de vardır:
Beyin-bilgisayar arayüzü, düşüncelerimizin ve niyetlerimizin daha hassas bir şekilde iletişim kurmasına olanak tanıdığı için bilgi savunma ve işbirliği teknolojisi olarak hayati öneme sahiptir. Beyin-bilgisayar arayüzü sadece robotlarla bilinç arasında bir bağlantı değildir: aynı zamanda bilinç-robot-bilinç etkileşimi de olabilir.
Birçok biyoteknoloji, bilgi paylaşımına dayanır ve birçok durumda insanlar yalnızca bilginin belirli bir uygulama için kullanılacağından emin olduklarında paylaşmaya istekli olurlar. Bu, gizlilik teknolojilerine (, sıfır bilgi kanıtları, homomorfik şifreleme, karıştırma teknolojileri gibi ) dayanır.
İşbirliği teknolojisi, diğer herhangi bir teknik alandaki finansmanı koordine etmek için kullanılabilir.
Zor Sorun: AI Güvenliği, Acil Zaman Çizgisi ve Düzenleme Çelişkisi
Geçen yıl makalemdeki en ikna edici karşıt görüşler AI güvenlik topluluğundan geldi. Argümanları şuydu: "Elbette, eğer güçlü AI geliştirmek için yarım yüzyılımız olursa, bu yararlı şeyleri inşa etmeye odaklanabiliriz. Ama gerçekte, görünüşe göre genel AI'ya ulaşmak için yalnızca üç yılımız ve ardından süper zekaya ulaşmak için de üç yılımız var. Bu nedenle, eğer dünyayı yok olmanın eşiğine getirmek ya da başka bir şekilde geri dönüşü olmayan bir duruma sokmak istemiyorsak, yalnızca yararlı teknolojilerin gelişimini hızlandırmakla kalmamalı, aynı zamanda zararlı teknolojilerin gelişimini de yavaşlatmalıyız; bu da belki de güç odaklarını kızdıracak güçlü düzenleyici önlemler gerektiriyor." Geçen yılki yazımda, riskli süper zeka formlarını inşa etmemek için belirsiz bir çağrıda bulunmaktan başka, aslında "zararlı teknolojilerin gelişimini yavaşlatma" konusunda herhangi bir spesifik strateji önermedim. Bu nedenle, burada bu soruyu doğrudan ele almak gerekli: Eğer en kötü senaryoda, AI riski çok yüksek ve zaman dilimi yalnızca beş yıl kadar kısaysa, hangi düzenleyici önlemleri desteklerim?
Yeni düzenlemeye temkinli yaklaşmanın nedenleri
Geçen yıl, ana AI düzenleme önerisi Kaliforniya'daki SB-1047 yasasıydı. SB-1047, en güçlü modellerin (, yani eğitim maliyeti 100 milyon doları aşan veya ince ayar maliyeti 10 milyon doları aşan modellerin ) geliştiricilerinin, yayınlamadan önce bir dizi güvenlik test önlemi almasını gerektiriyor. Ayrıca, AI modeli geliştiricileri yeterince dikkatli davranmazsa, onlara sorumluluk yükleniyor. Birçok eleştirmen bu yasanın "açık kaynağa tehdit oluşturduğunu" düşünüyor; buna katılmıyorum, çünkü maliyet eşiği yalnızca en güçlü modelleri etkiliyor: Llama3 modeli bile bu eşik altında olabilir. Ancak geçmişe baktığımda, bu yasada daha ciddi bir sorun olduğunu düşünüyorum: çoğu düzenleyici önlemde olduğu gibi, mevcut duruma aşırı bir uyum sağlıyor. Eğitim maliyetlerine odaklanmak, yeni teknolojilere karşı zayıf olduğunu kanıtladı: son zamanlardaki en gelişmiş DeepSeek v3 modelinin eğitim maliyeti yalnızca 6 milyon dolar ve o1 gibi yeni modellerde maliyetler genellikle eğitimden çıkarak çıkarım aşamasına kayıyor.
AI süper zekanın yok oluş senaryolarına en çok neden olabilecek aktörler
Aslında, AI süper zeka yok olma senaryolarına en çok neden olabilecek aktörler ordulardır. Geçtiğimiz yarım yüzyılda biyogüvenlik ( ve daha önceki dönemlerde ) tanık olduğumuz gibi, ordular korkunç eylemler gerçekleştirmeye istekli ve hata yapma olasılıkları oldukça yüksektir. Günümüzde, AI'nın askeri alandaki uygulamaları hızla gelişmektedir (, örneğin Ukrayna ve Gazze bölgesindeki uygulamalar ). Ayrıca, herhangi bir hükümet tarafından kabul edilen güvenlik düzenlemeleri, varsayılan olarak kendi orduları ve orduyla yakın işbirliği içinde olan şirketlerden muaf tutulmaktadır.
Strateji
Buna rağmen, bu argümanlar bizi çaresiz bırakacak nedenler değildir. Aksine, bunları rehber olarak alabilir ve bu endişeleri en az düzeye indiren kuralları oluşturmaya çalışabiliriz.
Strateji 1: Sorumluluk
Eğer birinin davranışı bir şekilde yasal olarak tazminat gerektiren zararlara neden olmuşsa, dava edilebilirler. Bu, ordudan ve diğer "yasanın üstündeki" aktörlerden kaynaklanan risk sorununu çözmez, ancak aşırı uyum sağlamaktan kaçınan oldukça genel bir yaklaşımdır; bu nedenle, serbest piyasa ekonomisine eğilimli ekonomistler genellikle bu uygulamayı destekler.
Şu ana kadar dikkate alınan ana sorumluluk hedefleri şunlardır:
Kullanıcıyı sorumlu tutmak, teşvik mekanizmasıyla en uyumlu olan gibi görünüyor. Modelin geliştirilme şekli ile nihai kullanım şekli arasındaki bağlantı genellikle belirsiz olsa da, kullanıcılar AI'nın spesifik kullanım şekillerini belirliyor. Kullanıcıları sorumlu tutmak, insanları AI'yı benim doğru bulduğum şekilde kullanmaları için güçlü bir baskı yaratır: İnsan zihnini mekanik bir takım olarak inşa etmeye odaklanmak, yeni bir benlik yaratmak yerine.