d/acc satu tahun: Kemajuan percepatan pertahanan dan pemikiran regulasi AI

d/acc: Tinjauan Setelah Setahun

Tahun lalu, saya menulis sebuah artikel tentang optimisme teknologi, menjelaskan antusiasme saya terhadap teknologi dan manfaat besar yang dapat dibawanya. Saya juga mengungkapkan sikap hati-hati terhadap beberapa masalah, terutama tentang AI super cerdas dan risiko penghancuran atau kehilangan kekuasaan yang mungkin tidak dapat diperbaiki yang dapat ditimbulkannya.

Inti dari artikel ini adalah mendorong suatu konsep akselerasi defensif yang terdesentralisasi, demokratis, dan berbeda. Harus ada percepatan dalam perkembangan teknologi, sambil fokus pada peningkatan kemampuan pertahanan daripada kemampuan penghancuran, serta berkomitmen untuk mendistribusikan kekuasaan, menghindari penilaian benar atau salah yang dilakukan oleh sekelompok elit. Mode pertahanan seharusnya seperti Swiss yang demokratis, bukan kastil dari para feodal di abad pertengahan.

Selama setahun, pemikiran ini telah berkembang secara signifikan. Saya telah membagikan pandangan ini di platform "80,000 Jam" dan menerima sebagian besar tanggapan positif, meskipun ada beberapa kritik. Pekerjaan ini telah menghasilkan hasil yang nyata: kemajuan dalam bidang vaksin sumber terbuka yang dapat diverifikasi; orang-orang semakin menyadari nilai udara dalam ruangan yang sehat; "Catatan Komunitas" terus memainkan peran positif; pasar prediksi mencapai tahun terobosan sebagai alat informasi; bukti nol pengetahuan diterapkan dalam identifikasi identitas pemerintah dan media sosial; alat pencitraan sumber terbuka mendapatkan aplikasi di bidang kedokteran dan antarmuka otak-mesin, dan lain-lain.

Musim gugur lalu, kami mengadakan acara d/acc penting pertama kami: "Hari Penemuan d/acc"(d/aDDy), yang mengumpulkan pembicara dari berbagai bidang d/acc( seperti biologi, fisika, jaringan, pertahanan informasi, dan teknologi saraf). Orang-orang yang telah lama berkecimpung dalam teknologi ini lebih memahami pekerjaan satu sama lain, dan orang luar semakin menyadari visi yang lebih besar: nilai-nilai yang mendorong perkembangan Ethereum dan cryptocurrency dapat diperluas ke dunia yang lebih luas.

Vitalik Artikel Baru: Bagaimana Desentralisasi Akselerasionisme Menggabungkan Cryptocurrency dan AI?

Makna dan Ruang Lingkup d/acc

Inti dari d/acc adalah: desentralisasi, demokratis, dan akselerasi pertahanan yang berbeda. Membangun teknologi yang dapat mengalihkan keseimbangan serangan dan pertahanan ke arah pertahanan, dan dalam proses implementasinya tidak bergantung pada pemberian lebih banyak kekuasaan kepada otoritas pusat. Kedua aspek ini saling terkait erat: setiap struktur politik yang terdesentralisasi, demokratis, atau bebas seringkali dapat berkembang pesat ketika pertahanan mudah diterapkan, dan menghadapi tantangan ketika pertahanan sulit.

Salah satu cara untuk memahami dan mewujudkan pentingnya desentralisasi, pertahanan, dan percepatan adalah dengan membandingkannya dengan konsep yang dihasilkan dari melepaskan salah satu dari ketiga aspek ini:

  1. Desentralisasi dipercepat, tetapi mengabaikan bagian "pertahanan diferensiasi"
  2. Percepatan pertahanan yang terbedakan, tetapi mengabaikan "desentralisasi dan demokrasi"
  3. Pertahanan terdesentralisasi, tetapi menolak percepatan

Vitalik Artikel Baru: Bagaimana Akselerasionisme Terdesentralisasi Menghubungkan Cryptocurrency dan AI?

Melalui d/acc, kami berkomitmen untuk mencapai tujuan berikut:

  • Dalam menghadapi tren yang semakin tertribalisasi di dunia saat ini, kita harus berpegang pada prinsip, membangun hal-hal tertentu untuk membuat dunia menjadi lebih aman dan lebih baik.

  • Menyadari bahwa kemajuan teknologi yang eksponensial berarti dunia akan menjadi sangat aneh, "jejak" manusia di alam semesta pasti akan terus meningkat. Kemampuan kita untuk melindungi hal-hal rapuh dari bahaya harus terus ditingkatkan, satu-satunya jalan keluar adalah maju terus.

  • Membangun teknologi yang benar-benar melindungi kita, bukan berdasarkan asumsi "orang baik ( atau AI baik ) mengendalikan segalanya". Kami mencapai tujuan ini dengan membangun alat yang secara alami lebih efektif untuk membangun dan melindungi daripada untuk menghancurkan.

Salah satu sudut pandang lain untuk memikirkan d/acc adalah kembali ke kerangka gerakan Partai Perompak Eropa pada akhir 2000-an: pemberdayaan. Tujuan kami adalah membangun dunia yang dapat mempertahankan agensi manusia, mencapai kebebasan negatif, yaitu menghindari intervensi aktif dari orang lain ( baik itu warga biasa, pemerintah, atau robot super pintar ) terhadap kemampuan kami untuk membentuk nasib kami sendiri, sekaligus mencapai kebebasan positif, yaitu memastikan bahwa kami memiliki pengetahuan dan sumber daya untuk menjalankan kemampuan ini.

Vitalik baru: Bagaimana desentralisasi akselerasionisme menghubungkan cryptocurrency dengan AI?

Tantangan: Keamanan AI, Garis Waktu Mendesak dan Dilema Regulasi

Tahun lalu, argumen yang paling meyakinkan yang saya terima dari komunitas keamanan AI datang dari. Argumennya adalah: "Tentu, jika kita memiliki waktu setengah abad untuk mengembangkan AI yang kuat, kita bisa berkonsentrasi pada pembangunan semua hal yang bermanfaat ini. Tetapi pada kenyataannya, tampaknya kita mungkin hanya memiliki waktu tiga tahun untuk mengembangkan AI umum, dan tiga tahun lagi untuk mencapai kecerdasan super. Oleh karena itu, jika kita tidak ingin dunia terjerumus dalam kehancuran atau dengan cara lain terjebak dalam dilema yang tidak dapat diubah, kita tidak dapat hanya mempercepat pengembangan teknologi yang bermanfaat, tetapi juga harus memperlambat pengembangan teknologi yang berbahaya, yang berarti perlu ada langkah-langkah regulasi yang kuat yang mungkin akan membuat para penguasa marah."

Alasan untuk sikap hati-hati terhadap regulasi baru:

Tahun lalu, proposal regulasi AI utama adalah RUU SB-1047 di California. RUU ini mengharuskan pengembang model paling kuat yang memiliki biaya pelatihan lebih dari 100 juta atau biaya penyempurnaan lebih dari 10 juta untuk mengambil serangkaian langkah pengujian keamanan sebelum rilis. Jika pengembang model AI gagal untuk cukup berhati-hati, mereka akan dimintai pertanggungjawaban. Banyak kritikus berpendapat bahwa RUU ini "mengancam sumber terbuka"; saya memiliki pandangan berbeda karena ambang biaya berarti bahwa itu hanya mempengaruhi model-model paling kuat. Namun, melihat ke belakang, saya percaya ada masalah yang lebih serius dengan RUU ini: seperti kebanyakan tindakan regulasi, itu terlalu sesuai dengan situasi saat ini. Fokus pada biaya pelatihan telah terbukti lemah dalam menghadapi teknologi baru: biaya pelatihan model DeepSeek v3 terbaru hanya 6 juta, dan pada model-model baru seperti o1, biaya biasanya lebih banyak dialihkan dari pelatihan ke tahap inferensi.

Vitalik artikel baru: Bagaimana desentralisasi akselerasionisme menghubungkan cryptocurrency dan AI?

Pelaku yang paling mungkin bertanggung jawab atas skenario kehancuran superinteligensi AI:

Sebenarnya, pelaku yang paling mungkin bertanggung jawab atas skenario kehancuran kecerdasan super AI adalah militer. Seperti yang telah kita saksikan dalam dua setengah dekade terakhir di bidang keamanan biologi ( dan sebelumnya ), militer bersedia mengambil tindakan mengerikan, dan mereka sangat rentan untuk membuat kesalahan. Saat ini, aplikasi AI di bidang militer berkembang pesat ( seperti yang terlihat di Ukraina dan Gaza ). Selain itu, setiap langkah pengawasan keamanan yang diambil oleh pemerintah secara default akan membebaskan militer negara mereka sendiri dan perusahaan yang bekerja sama erat dengan militer.

Strategi tanggapan:

Meskipun demikian, argumen-argumen ini bukanlah alasan untuk membuat kita terjebak tanpa tindakan. Sebaliknya, kita dapat menganggapnya sebagai panduan, mencoba merumuskan aturan yang memicu kekhawatiran ini sesedikit mungkin.

Strategi 1: Tanggung Jawab

Jika tindakan seseorang menyebabkan kerugian yang dapat dipertanggungjawabkan secara hukum, mereka mungkin akan diadili. Ini tidak menyelesaikan masalah risiko yang ditimbulkan oleh militer dan pelaku lain yang "berada di atas hukum", tetapi ini adalah pendekatan yang sangat umum yang dapat menghindari overfitting, dan itulah sebabnya ekonom yang cenderung libertarian biasanya mendukung praktik ini.

Sasaran tanggung jawab utama yang dipertimbangkan hingga saat ini adalah sebagai berikut:

  • Pengguna: orang yang menggunakan AI.
  • Penerapan: Perantara yang menyediakan layanan AI untuk pengguna.
  • Pengembang: orang yang membangun AI.

Menyalahkan pengguna tampaknya paling sesuai dengan mekanisme insentif. Meskipun cara pengembangan model sering kali tidak jelas kaitannya dengan cara penggunaan akhirnya, pengguna menentukan cara spesifik penggunaan AI. Menuntut tanggung jawab dari pengguna akan menciptakan tekanan yang kuat, mendorong orang untuk menggunakan AI dengan cara yang saya anggap benar: fokus pada membangun perangkat mekanis untuk pemikiran manusia, bukan menciptakan bentuk kehidupan cerdas yang dapat mempertahankan diri yang baru. Yang pertama akan secara teratur merespons niat pengguna, sehingga kecuali pengguna menginginkannya, tidak akan menyebabkan tindakan yang bencana. Sedangkan yang kedua memiliki risiko terbesar, yaitu bisa lepas kendali dan memicu skenario "AI lepas kendali" yang klasik. Salah satu manfaat lain dari menempatkan tanggung jawab sedekat mungkin dengan ujung penggunaan akhir adalah, itu meminimalkan risiko tanggung jawab yang membuat orang mengambil tindakan yang berbahaya dalam aspek lain, seperti penutupan sumber, ketahui pelanggan Anda ( KYC ) dan pemantauan, kolusi negara/perusahaan yang membatasi pengguna secara diam-diam, seperti bank yang menolak untuk memberikan layanan kepada beberapa pelanggan, mengecualikan sebagian besar wilayah dunia (.

Vitalik baru: Bagaimana desentralisasi akselerasionisme menghubungkan cryptocurrency dan AI?

Ada pandangan klasik yang menentang hanya menyalahkan pengguna: pengguna mungkin adalah individu biasa, tidak memiliki banyak uang, atau bahkan mungkin anonim, sehingga tidak ada yang benar-benar dapat membayar akibat kerusakan yang bencana. Pandangan ini mungkin dilebih-lebihkan: meskipun beberapa pengguna terlalu kecil untuk bertanggung jawab, pelanggan biasa pengembang AI tidak demikian, sehingga pengembang AI tetap akan termotivasi untuk membangun produk yang dapat meyakinkan pengguna bahwa mereka tidak akan menghadapi risiko tanggung jawab yang tinggi. Dengan kata lain, ini masih merupakan pandangan yang valid yang perlu ditangani. Anda perlu memotivasi seseorang yang memiliki sumber daya di dalam saluran untuk mengambil langkah-langkah kehati-hatian yang tepat, dan penyebar serta pengembang adalah target yang mudah ditemukan, mereka masih memiliki pengaruh besar terhadap keamanan model.

Tanggung jawab penyebar tampaknya masuk akal. Salah satu kekhawatiran umum adalah bahwa ini tidak berlaku untuk model sumber terbuka, tetapi ini tampaknya dapat dikelola, terutama karena model yang paling kuat kemungkinan besar adalah tertutup ). Jika hasilnya bersifat sumber terbuka, maka meskipun tanggung jawab penyebar pada akhirnya mungkin tidak sangat berguna, tetapi juga tidak akan menimbulkan terlalu banyak bahaya (. Tanggung jawab pengembang juga menghadapi kekhawatiran yang sama ) meskipun untuk model sumber terbuka, ada hambatan tertentu untuk menyesuaikan model agar melakukan beberapa hal yang sebenarnya tidak diperbolehkan (, tetapi alasan bantahan yang sama juga berlaku. Sebagai prinsip umum, mengenakan "pajak" pada kontrol, pada dasarnya mengatakan "kamu dapat membangun sesuatu yang tidak dapat kamu kendalikan, atau kamu dapat membangun sesuatu yang dapat kamu kendalikan, tetapi jika kamu membangun sesuatu yang dapat kamu kendalikan, maka 20% dari kontrol harus digunakan untuk tujuan kami", ini tampaknya merupakan posisi yang masuk akal bagi sistem hukum.

![Vitalik Artikel Baru: Bagaimana Desentralisasi Akselerasionisme Menghubungkan Cryptocurrency dan AI?])https://img-cdn.gateio.im/webp-social/moments-464eec9622a1aadced54930095728902.webp(

Sebuah ide yang tampaknya belum dieksplorasi sepenuhnya adalah untuk mempertanggungjawabkan kepada para aktor lain dalam saluran, yang lebih mungkin memiliki sumber daya yang cukup. Sebuah ide yang sangat sesuai dengan konsep d/acc adalah untuk mempertanggungjawabkan pemilik atau operator dari perangkat apa pun yang diambil alih oleh AI dalam proses melakukan tindakan berbahaya yang dapat menyebabkan bencana, misalnya melalui peretasan ). Ini akan menciptakan insentif yang sangat luas, mendorong orang untuk berusaha membuat dunia (, terutama infrastruktur di bidang komputasi dan biologi, ) seaman mungkin.

Strategi 2: Tombol "penundaan lunak" global pada perangkat keras skala industri

Jika saya yakin kita membutuhkan langkah-langkah yang lebih "kuat" daripada aturan tanggung jawab, saya akan memilih strategi ini. Tujuannya adalah untuk memiliki kemampuan untuk mengurangi kapasitas komputasi global yang tersedia sekitar 90%-99% pada masa-masa kritis, selama 1-2 tahun, untuk memberi umat manusia lebih banyak waktu untuk bersiap. Nilai 1-2 tahun tidak boleh dianggap remeh: satu tahun "mode perang" dalam keadaan merasa puas bisa setara dengan seratus tahun pekerjaan biasa. Metode untuk mencapai "penangguhan" sedang dieksplorasi, termasuk beberapa proposal konkret, seperti meminta pendaftaran perangkat keras dan verifikasi lokasi.

Salah satu metode yang lebih canggih adalah menggunakan teknik enkripsi yang cerdas: misalnya, perangkat keras AI skala industri ( tetapi bukan tingkat konsumen ) dapat dilengkapi dengan chip perangkat keras tepercaya, yang hanya diizinkan untuk terus beroperasi setelah menerima tanda tangan 3/3 dari lembaga internasional utama ( termasuk setidaknya satu lembaga non-militer ) setiap minggu. Tanda tangan ini akan terpisah dari perangkat ( jika diperlukan, kami bahkan dapat meminta penerbitan bukti nol-pengetahuan di blockchain ), sehingga ini akan menjadi semua atau tidak sama sekali: tidak ada cara nyata untuk memberikan izin pada satu perangkat untuk terus beroperasi tanpa memberikan izin pada semua perangkat lainnya.

Ini tampaknya "memenuhi syarat" dalam memaksimalkan keuntungan dan meminimalkan risiko:

  • Ini adalah sebuah
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • 2
  • Bagikan
Komentar
0/400
Ser_APY_2000vip
· 18jam yang lalu
Sekilas air, kemasan murni yang mendalam
Lihat AsliBalas0
Lonely_Validatorvip
· 18jam yang lalu
Apakah serangan balik tidak enak?
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)