d/acc một năm: Tiến trình phòng thủ tăng tốc và suy nghĩ về quản lý AI

d/acc: Nhìn lại sau một năm

Năm ngoái, tôi đã viết một bài báo về chủ nghĩa lạc quan công nghệ, thể hiện niềm đam mê của tôi đối với công nghệ và những lợi ích to lớn mà nó có thể mang lại. Đồng thời cũng bày tỏ thái độ thận trọng đối với một số vấn đề, chủ yếu là về trí tuệ nhân tạo siêu thông minh và những rủi ro hủy diệt hoặc mất quyền lực không thể đảo ngược mà nó có thể mang lại.

Quan điểm cốt lõi của bài viết là ủng hộ một ý tưởng tăng tốc phòng thủ phi tập trung, dân chủ và đa dạng. Cần phải thúc đẩy sự phát triển công nghệ, đồng thời tập trung vào việc nâng cao khả năng phòng thủ thay vì khả năng phá hoại, và cam kết phân tán quyền lực, tránh việc một số ít tinh hoa đại diện cho mọi người phán xét đúng sai. Mô hình phòng thủ nên giống như một đất nước dân chủ Thụy Sĩ, chứ không phải là những lâu đài của lãnh chúa phong kiến thời trung cổ.

Trong một năm qua, những ý tưởng này đã có sự phát triển đáng kể. Tôi đã chia sẻ những quan điểm này trên nền tảng "80.000 giờ" và nhận được hầu hết các phản hồi tích cực, cũng như một số chỉ trích. Công việc này đã đạt được những kết quả thực tế: lĩnh vực vaccine mã nguồn mở có sự tiến triển có thể xác minh; mọi người ngày càng nhận thức rõ hơn về giá trị của không khí trong nhà khỏe mạnh; "ghi chú cộng đồng" tiếp tục phát huy vai trò tích cực; thị trường dự đoán đã có một năm đột phá như một công cụ thông tin; chứng minh không kiến thức đã được áp dụng trong nhận dạng danh tính chính phủ và lĩnh vực mạng xã hội; công cụ hình ảnh mã nguồn mở đã được áp dụng trong lĩnh vực y tế và giao diện não-máy, v.v.

Mùa thu năm ngoái, chúng tôi đã tổ chức sự kiện d/acc quan trọng đầu tiên: "Ngày phát hiện d/acc"(d/aDDy), quy tụ các diễn giả từ nhiều lĩnh vực khác nhau của d/acc( sinh học, vật lý, mạng, phòng thủ thông tin và công nghệ thần kinh). Những người đã làm việc lâu dài trong các công nghệ này hiểu rõ hơn về công việc của nhau, và những người bên ngoài cũng ngày càng nhận thức được một tầm nhìn lớn hơn: giá trị thúc đẩy sự phát triển của Ethereum và tiền điện tử có thể mở rộng ra một thế giới rộng lớn hơn.

Vitalik bài viết mới: Chủ nghĩa tăng tốc phi tập trung làm thế nào để tiền điện tử và AI?

Ý nghĩa và phạm vi của d/acc

Tư tưởng cốt lõi của d/acc là: phòng thủ phi tập trung, dân chủ và khác biệt. Xây dựng công nghệ có thể nghiêng sự cân bằng giữa tấn công và phòng thủ về phía phòng thủ, và trong quá trình thực hiện không phụ thuộc vào việc trao nhiều quyền lực hơn cho các cơ quan quyền lực trung ương. Hai khía cạnh này gắn bó chặt chẽ với nhau: bất kỳ cấu trúc chính trị nào phi tập trung, dân chủ hoặc tự do, thường phát triển mạnh mẽ khi phòng thủ dễ thực hiện, và gặp khó khăn khi phòng thủ trở nên khó khăn.

Một cách để hiểu và thực hiện tầm quan trọng của phi tập trung, phòng ngừa và tăng tốc là so sánh nó với các quan niệm phát sinh từ việc từ bỏ bất kỳ một trong ba khía cạnh này.

  1. Tăng tốc phi tập trung, nhưng bỏ qua phần "phòng thủ khác biệt"
  2. Phòng thủ khác biệt được tăng tốc, nhưng bỏ qua "phi tập trung và dân chủ"
  3. Phòng thủ phi tập trung, nhưng loại bỏ sự thúc đẩy

Vitalik bài viết mới: Chủ nghĩa tăng tốc phi tập trung ảnh hưởng như thế nào đến tiền điện tử và AI?

Thông qua d/acc, chúng tôi cam kết đạt được các mục tiêu sau:

  • Giữ vững nguyên tắc trong bối cảnh thế giới ngày càng có xu hướng bộ lạc hóa, xây dựng những điều cụ thể để làm cho thế giới trở nên an toàn và tốt đẹp hơn.

  • Nhận ra rằng sự phát triển công nghệ theo cấp số nhân có nghĩa là thế giới sẽ trở nên vô cùng kỳ lạ, "dấu chân" của con người trong vũ trụ chắc chắn sẽ ngày càng gia tăng. Khả năng bảo vệ những điều dễ bị tổn thương khỏi bị tổn hại của chúng ta phải được nâng cao liên tục, con đường duy nhất là tiến về phía trước.

  • Xây dựng công nghệ có thể thực sự bảo vệ chúng ta, thay vì dựa vào giả định "người tốt ( hoặc AI tốt ) kiểm soát mọi thứ". Chúng ta đạt được mục tiêu này bằng cách xây dựng các công cụ tự nhiên hiệu quả hơn khi được sử dụng để xây dựng và bảo vệ, thay vì để phá hoại.

Một cách nhìn khác về d/acc là quay trở lại khung khổ của phong trào Pirate Party ở châu Âu vào cuối những năm 2000: trao quyền. Mục tiêu của chúng tôi là xây dựng một thế giới có thể giữ lại tính chủ động của con người, đạt được tự do tiêu cực, tức là tránh sự can thiệp tích cực vào khả năng tự định hình số phận của chúng ta từ bất kỳ ai, cho dù là công dân bình thường, chính phủ, hay siêu trí tuệ nhân tạo (, đồng thời đạt được tự do tích cực, tức là đảm bảo rằng chúng ta có kiến thức và tài nguyên để thực hiện khả năng này.

![Vitalik bài viết mới: Chủ nghĩa tăng tốc phi tập trung làm thế nào để tiền điện tử và AI?])https://img-cdn.gateio.im/webp-social/moments-cf3127f9a06cb15023ddeba35b9b2ad9.webp(

Vấn đề: An toàn AI, thời gian cấp bách và khó khăn trong quản lý

Năm ngoái, những ý kiến phản đối thuyết phục nhất mà bài viết của tôi nhận được đến từ cộng đồng an toàn AI. Lập luận của họ là: "Tất nhiên, nếu chúng ta có nửa thế kỷ để phát triển AI mạnh mẽ, chúng ta có thể tập trung vào việc xây dựng tất cả những điều có lợi này. Nhưng thực tế, có vẻ như chúng ta chỉ có ba năm để phát triển AI tổng quát, và thêm ba năm nữa để phát triển thành siêu trí tuệ. Do đó, nếu chúng ta không muốn để thế giới rơi vào sự hủy diệt hoặc theo cách khác rơi vào tình huống không thể đảo ngược, chúng ta không thể chỉ đơn giản là tăng tốc sự phát triển của công nghệ có lợi, mà còn phải làm chậm lại sự phát triển của công nghệ có hại, điều này có nghĩa là cần có các biện pháp quản lý mạnh mẽ có thể khiến các thế lực quyền lực không vui.

Lý do cho thái độ thận trọng đối với quy định mới:

Năm ngoái, đề xuất quy định AI chính là dự luật SB-1047 của California. Nó yêu cầu các nhà phát triển mô hình mạnh nhất có chi phí đào tạo trên 100 triệu đô la hoặc chi phí tinh chỉnh trên 10 triệu đô la phải thực hiện một loạt biện pháp kiểm tra an toàn trước khi phát hành. Nếu các nhà phát triển mô hình AI không cẩn thận đủ, họ sẽ phải chịu trách nhiệm. Nhiều nhà phê bình cho rằng dự luật này "đe dọa đến mã nguồn mở"; tôi không đồng ý với điều này, vì ngưỡng chi phí có nghĩa là nó chỉ ảnh hưởng đến những mô hình mạnh nhất. Tuy nhiên, nhìn về quá khứ, tôi nghĩ rằng dự luật này có một vấn đề nghiêm trọng hơn: giống như hầu hết các biện pháp quy định, nó quá thích ứng với tình hình hiện tại. Mối quan tâm về chi phí đào tạo đã được chứng minh là yếu kém khi đối mặt với công nghệ mới: chi phí đào tạo của mô hình DeepSeek v3 tiên tiến gần đây chỉ là 6 triệu đô la, và trong các mô hình mới như o1, chi phí thường chuyển từ giai đoạn đào tạo sang giai đoạn suy diễn.

![Vitalik bài viết mới: Chủ nghĩa tăng tốc phi tập trung là gì trong tiền điện tử và AI?])https://img-cdn.gateio.im/webp-social/moments-7ebae4f7e715feb6063c7ff4e321b245.webp(

Những tác nhân có khả năng gây ra kịch bản hủy diệt của trí tuệ nhân tạo siêu cấp nhất:

Trên thực tế, những tác nhân có khả năng nhất chịu trách nhiệm cho kịch bản hủy diệt do AI siêu thông minh gây ra là quân đội. Như chúng ta đã chứng kiến trong nửa thế kỷ qua về an toàn sinh học ) và cả những thời kỳ trước đó (, quân đội sẵn sàng thực hiện một số hành động kinh hoàng, và họ rất dễ mắc sai lầm. Ngày nay, việc ứng dụng AI trong lĩnh vực quân sự đang phát triển nhanh chóng ) như tại Ukraine, khu vực Gaza (. Hơn nữa, bất kỳ biện pháp quản lý an toàn nào mà chính phủ thông qua, theo mặc định đều sẽ miễn trừ cho quân đội của nước mình cũng như các công ty hợp tác chặt chẽ với quân đội.

Chiến lược ứng phó:

Dù vậy, những lập luận này không phải là lý do để chúng ta bị trói buộc. Ngược lại, chúng ta có thể coi chúng như là hướng dẫn, cố gắng xây dựng những quy tắc gây ra ít lo ngại nhất.

Chiến lược 1: Trách nhiệm

Nếu hành vi của một người nào đó gây ra thiệt hại có thể bị truy cứu theo pháp luật, họ có thể bị kiện. Điều này không giải quyết được vấn đề rủi ro đến từ quân đội và các hành vi "vượt trên pháp luật" khác, nhưng đây là một phương pháp rất phổ biến, có thể tránh việc phù hợp quá mức, chính vì vậy, các nhà kinh tế học có xu hướng ủng hộ chủ nghĩa tự do thường ủng hộ phương pháp này.

Các mục tiêu trách nhiệm chính được xem xét cho đến nay như sau:

  • Người dùng: Người sử dụng AI.
  • Nhà triển khai: Người trung gian cung cấp dịch vụ AI cho người dùng.
  • Nhà phát triển: Người xây dựng AI.

Việc đổ lỗi cho người dùng dường như phù hợp nhất với cơ chế khuyến khích. Mặc dù mối liên hệ giữa cách phát triển mô hình và cách sử dụng cuối cùng thường không rõ ràng, nhưng người dùng quyết định cách sử dụng cụ thể của AI. Việc truy cứu trách nhiệm người dùng sẽ tạo ra một áp lực mạnh mẽ, thúc đẩy mọi người sử dụng AI theo cách mà tôi cho là đúng: tập trung vào việc xây dựng bộ máy cho tư duy con người, chứ không phải tạo ra các hình thức sống thông minh tự duy trì mới. Cái trước sẽ phản hồi theo ý định của người dùng một cách định kỳ, do đó sẽ không dẫn đến hành động thảm khốc trừ khi người dùng muốn. Cái sau thì có rủi ro lớn nhất, đó là có thể mất kiểm soát và gây ra các tình huống "AI mất kiểm soát" kinh điển. Một lợi ích khác của việc đặt trách nhiệm càng gần phía cuối sử dụng càng tốt là nó tối thiểu hóa rủi ro trách nhiệm dẫn đến hành động gây hại ở những khía cạnh khác, ví dụ như việc đóng mã nguồn, hiểu khách hàng của bạn KYC và giám sát, sự thông đồng giữa nhà nước/doanh nghiệp để hạn chế bí mật người dùng, như việc ngân hàng từ chối cung cấp dịch vụ cho một số khách hàng, loại trừ một phần lớn thế giới.

![Vitalik bài viết mới: Chủ nghĩa tăng tốc phi tập trung đang làm gì với tiền điện tử và AI?])https://img-cdn.gateio.im/webp-social/moments-bbfd388fc37072f272c62129923df866.webp(

Có một quan điểm cổ điển phản đối việc chỉ đổ lỗi cho người dùng: người dùng có thể là những cá nhân bình thường, không có nhiều tiền, thậm chí có thể là người ẩn danh, vì vậy không ai thực sự có thể chịu trách nhiệm cho những thiệt hại thảm khốc. Quan điểm này có thể đã bị phóng đại: ngay cả khi một số người dùng quá nhỏ để chịu trách nhiệm, thì khách hàng bình thường của các nhà phát triển AI không phải là như vậy, do đó các nhà phát triển AI vẫn sẽ có động lực để xây dựng những sản phẩm khiến người dùng tin rằng họ sẽ không phải đối mặt với rủi ro trách nhiệm cao. Nói cách khác, đây vẫn là một quan điểm hợp lệ cần được giải quyết. Bạn cần khuyến khích một người nào đó có nguồn lực trong chuỗi khích lệ thực hiện các biện pháp thận trọng thích hợp, và cả những người triển khai và phát triển đều là những mục tiêu dễ dàng tìm thấy, họ vẫn có ảnh hưởng lớn đến độ an toàn của mô hình.

Trách nhiệm của người triển khai dường như là hợp lý. Một mối quan tâm phổ biến là nó không hoạt động với mô hình mã nguồn mở, nhưng điều này dường như có thể quản lý được, đặc biệt là vì các mô hình mạnh nhất có khả năng cao là mã nguồn đóng ). Nếu kết quả là mã nguồn mở, thì mặc dù trách nhiệm của người triển khai cuối cùng có thể không hữu ích lắm, nhưng cũng sẽ không gây ra quá nhiều thiệt hại (. Trách nhiệm của nhà phát triển cũng có những mối quan tâm tương tự ( mặc dù đối với mô hình mã nguồn mở, cần tinh chỉnh mô hình để nó thực hiện một số điều mà trước đây không được phép có một số rào cản ), nhưng lý lẽ phản biện tương tự cũng áp dụng. Như một nguyên tắc chung, áp dụng một "thuế" lên sự kiểm soát, về cơ bản là nói "bạn có thể xây dựng những thứ mà bạn không thể kiểm soát, hoặc bạn có thể xây dựng những thứ mà bạn có thể kiểm soát, nhưng nếu bạn xây dựng những thứ mà bạn có thể kiểm soát, thì 20% quyền kiểm soát phải được sử dụng cho mục đích của chúng tôi", điều này dường như là lập trường hợp lý mà hệ thống pháp luật nên có.

![Vitalik bài viết mới: Chủ nghĩa tăng tốc phi tập trung làm thế nào để tiền điện tử và AI?])https://img-cdn.gateio.im/webp-social/moments-464eec9622a1aadced54930095728902.webp(

Một ý tưởng dường như chưa được khám phá đầy đủ là quy trách nhiệm cho các tác nhân khác trong đường ống, những người có khả năng sở hữu nguồn lực dồi dào hơn. Một ý tưởng rất phù hợp với triết lý d/acc là quy trách nhiệm đối với AI trong quá trình thực hiện một số hành động có hại thảm khốc, chẳng hạn như việc hack vào bất kỳ thiết bị nào sở hữu hoặc điều khiển ). Điều này sẽ tạo ra một động lực rất rộng lớn, thúc đẩy mọi người nỗ lực để làm cho thế giới (, đặc biệt là trong lĩnh vực tính toán và sinh học ), có hạ tầng an toàn nhất có thể.

Chiến lược 2: Nút "tạm dừng mềm" toàn cầu trên phần cứng quy mô công nghiệp

Nếu tôi chắc chắn rằng chúng ta cần những biện pháp "mạnh mẽ" hơn quy tắc trách nhiệm, tôi sẽ chọn chiến lược này. Mục tiêu là có khả năng giảm khoảng 90%-99% năng lực tính toán toàn cầu trong những thời điểm quan trọng, kéo dài từ 1-2 năm, để cho nhân loại có thêm thời gian chuẩn bị. Giá trị của 1-2 năm không nên bị đánh giá quá cao: một năm "chế độ chiến tranh" trong tình huống tự mãn dễ dàng có thể tương đương với một trăm năm công việc thông thường. Các phương pháp để thực hiện "tạm dừng" đã được khám phá, bao gồm một số đề xuất cụ thể, chẳng hạn như yêu cầu đăng ký phần cứng và xác minh vị trí.

Một phương pháp tiên tiến hơn là sử dụng các biện pháp mã hóa tinh vi: ví dụ, phần cứng AI sản xuất quy mô công nghiệp ( nhưng không phải tiêu dùng ) có thể được trang bị một chip phần cứng đáng tin cậy, chỉ cho phép tiếp tục hoạt động khi nhận được chữ ký 3/3 từ các tổ chức quốc tế chính ( bao gồm ít nhất một tổ chức phụ không quân sự ) hàng tuần. Những chữ ký này sẽ không liên quan đến thiết bị ( nếu cần, chúng tôi thậm chí có thể yêu cầu phát hành bằng chứng không kiến thức trên blockchain ), vì vậy đây sẽ là toàn bộ hoặc không có gì: không có cách thực tế nào để ủy quyền cho một thiết bị tiếp tục hoạt động mà không ủy quyền cho tất cả các thiết bị khác.

Điều này dường như "đáp ứng yêu cầu" trong việc tối đa hóa lợi ích và tối thiểu hóa rủi ro:

  • Đây là một
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 2
  • Chia sẻ
Bình luận
0/400
Ser_APY_2000vip
· 15giờ trước
Một cái nhìn về nước, trang bị tinh tế.
Xem bản gốcTrả lời0
Lonely_Validatorvip
· 15giờ trước
Phòng thủ phản công không phải là tuyệt vời sao?
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)