Cúp thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, việc đào tạo mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ nhàng, quá trình đào tạo cần liên tục đầu tư sức mạnh tính toán quy mô lớn, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một cơ quan duy nhất trong một cụm hiệu suất cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân tách nhiệm vụ huấn luyện mô hình, phân phối đến nhiều máy để thực hiện phối hợp, nhằm vượt qua các nút thắt về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính thống nhất phối hợp các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần phù hợp với trọng số mô hình
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ
Đường ống song song: Thực hiện tuần tự theo từng giai đoạn, nâng cao thông lượng
Phân tán tensor: Tinh chỉnh phân đoạn phép toán ma trận, nâng cao độ mịn của sự song song
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều phối từ xa nhiều "văn phòng" nhân viên hợp tác để hoàn thành nhiệm vụ. Hiện nay, hầu hết các mô hình lớn chính ( GPT-4, Gemini, LLaMA, v.v. ) đều được hoàn thành bằng cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp hoàn thành nhiệm vụ đào tạo mà không có bộ điều phối trung tâm, thường thông qua giao thức điều khiển việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong sự khác biệt và phân chia thiết bị: Khó khăn trong việc phối hợp các thiết bị khác nhau, hiệu quả phân chia nhiệm vụ thấp
Độ hiệu quả giao tiếp bị nghẽn: Giao tiếp mạng không ổn định, nghẽn băng thông đồng bộ độ dốc rõ ràng
Thiếu khả năng thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung ương, phân phát nhiệm vụ, cơ chế hoàn tác phức tạp
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả đúng đắn" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập trung hợp nhất các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính (. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời kết hợp lợi thế phân tán dữ liệu trong đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có đặc điểm hoàn toàn mở và kháng kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối ôn hòa, phù hợp hơn để làm kiến trúc triển khai tạm thời trong ngành công nghiệp.
![Chén thánh Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-a8004f094fff74515470052b3a24617c.webp(
Phi tập trung đào tạo các ranh giới, cơ hội và lộ trình thực tế
Xét từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút khác nhau, không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia sẻ và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có giới hạn về quyền riêng tư dữ liệu và chủ quyền mạnh mẽ như y tế, tài chính, dữ liệu nhạy cảm ) bị hạn chế bởi quy định pháp luật và ràng buộc đạo đức, không thể chia sẻ một cách công khai; và các nhiệm vụ thiếu động lực hợp tác như mô hình nội bộ của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ( thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của việc đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ phân phối và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau hành vi như RLHF, DPO), nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất thích hợp cho việc đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo các dự án kinh điển解析
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa kỹ thuật. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
( Prime Intellect: Huấn luyện lộ trình có thể xác minh được của mạng hợp tác tăng cường.
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, tính mở và cơ chế khuyến khích đầy đủ.
)# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
02、Chi tiết cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường không đồng bộ tách rời
PRIME-RL là khung mô hình và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản huấn luyện Phi tập trung, được thiết kế đặc biệt cho mạng lưới không đồng nhất và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên thích ứng, phân tách cấu trúc quy trình huấn luyện, suy diễn và tải trọng lên, cho phép mỗi nút huấn luyện hoàn thành vòng nhiệm vụ độc lập tại địa phương và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác thực và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện huấn luyện linh hoạt trong môi trường không có lập lịch trung tâm, vừa giảm thiểu độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC###Quan sát Đáng tin cậy & Kiểm tra Địa phương( là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số không đồng bộ
SHARDCAST là giao thức truyền và tổng hợp trọng số được thiết kế bởi Prime Intellect, tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật từng phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và chu kỳ đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là khung tối ưu hóa truyền thông được nhóm Prime Intellect thực hiện độc lập và mã nguồn mở dựa trên triết lý DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để đối phó với các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị dị hạt và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí truyền thông cao do đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp việc cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL)Prime Collective Communication Library### là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của các thư viện giao tiếp truyền thống( như NCCL, Gloo) trong các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén gradient, đồng bộ độ chính xác thấp và phục hồi từ điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp không đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
(# 03、Prime Intellect kích thích mạng và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác minh
Nút đào tạo: thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác thực tính xác thực của hành vi đào tạo và tham gia vào việc tính toán phần thưởng cũng như tổng hợp chiến lược.
Quy trình cốt lõi của thỏa thuận bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh lộ trình, tổng hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
![Cốc thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp###
(# 04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect sẽ phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là sản phẩm đầu tiên trên thế giới được phát triển bởi异
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
5 thích
Phần thưởng
5
5
Chia sẻ
Bình luận
0/400
StakeOrRegret
· 5giờ trước
Lại đến để vẽ BTC rồi.
Xem bản gốcTrả lời0
JustAnotherWallet
· 21giờ trước
Khả năng tính toán cao cấp, lớn! Chi phí, cũng lớn!
Xem bản gốcTrả lời0
GasFeeVictim
· 21giờ trước
Đừng lại làm cái bếp nướng CPU nữa.
Xem bản gốcTrả lời0
StealthDeployer
· 21giờ trước
Khả năng tính toán đắt như vậy, tại sao không tận dụng lợi ích từ các mỏ khai thác?
Phi tập trung AI đào tạo của các khám phá tiên phong: từ thách thức công nghệ đến những đột phá thực tiễn
Cúp thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung
Trong toàn bộ chuỗi giá trị của AI, việc đào tạo mô hình là giai đoạn tiêu tốn tài nguyên nhiều nhất và có ngưỡng kỹ thuật cao nhất, trực tiếp quyết định giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ nhàng, quá trình đào tạo cần liên tục đầu tư sức mạnh tính toán quy mô lớn, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một cơ quan duy nhất trong một cụm hiệu suất cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm cơ sở, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với những lợi thế về hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong việc huấn luyện mô hình lớn hiện nay, cốt lõi của nó là phân tách nhiệm vụ huấn luyện mô hình, phân phối đến nhiều máy để thực hiện phối hợp, nhằm vượt qua các nút thắt về tính toán và lưu trữ trên một máy. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn do các tổ chức tập trung kiểm soát, điều phối và đồng bộ, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết NVLink tốc độ cao, do nút chính thống nhất phối hợp các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ điều phối từ xa nhiều "văn phòng" nhân viên hợp tác để hoàn thành nhiệm vụ. Hiện nay, hầu hết các mô hình lớn chính ( GPT-4, Gemini, LLaMA, v.v. ) đều được hoàn thành bằng cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi của nó là: nhiều nút không tin cậy ( có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên ) phối hợp hoàn thành nhiệm vụ đào tạo mà không có bộ điều phối trung tâm, thường thông qua giao thức điều khiển việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng liệu có thể "hợp tác hiệu quả + khuyến khích trung thực + kết quả đúng đắn" vẫn đang ở giai đoạn khám phá nguyên mẫu sớm.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương và tập trung hợp nhất các tham số mô hình, phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư như y tế, tài chính (. Học liên bang có cấu trúc kỹ thuật phân tán và khả năng hợp tác cục bộ, đồng thời kết hợp lợi thế phân tán dữ liệu trong đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào bên điều phối đáng tin cậy và không có đặc điểm hoàn toàn mở và kháng kiểm duyệt. Nó có thể được coi là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối ôn hòa, phù hợp hơn để làm kiến trúc triển khai tạm thời trong ngành công nghiệp.
![Chén thánh Crypto AI: Khám phá tiên phong trong đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-a8004f094fff74515470052b3a24617c.webp(
Phi tập trung đào tạo các ranh giới, cơ hội và lộ trình thực tế
Xét từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút khác nhau, không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia sẻ và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có giới hạn về quyền riêng tư dữ liệu và chủ quyền mạnh mẽ như y tế, tài chính, dữ liệu nhạy cảm ) bị hạn chế bởi quy định pháp luật và ràng buộc đạo đức, không thể chia sẻ một cách công khai; và các nhiệm vụ thiếu động lực hợp tác như mô hình nội bộ của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ( thì thiếu động lực tham gia từ bên ngoài. Những ranh giới này cùng nhau tạo thành những hạn chế thực tế của việc đào tạo phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ phân phối và có thể khuyến khích, đào tạo phi tập trung thể hiện rõ triển vọng ứng dụng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau hành vi như RLHF, DPO), nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo các mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, độ kết nối thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất thích hợp cho việc đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo các dự án kinh điển解析
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho các hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường hiện thực hóa của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa kỹ thuật. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
( Prime Intellect: Huấn luyện lộ trình có thể xác minh được của mạng hợp tác tăng cường.
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận phần thưởng đáng tin cậy cho những đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, tính mở và cơ chế khuyến khích đầy đủ.
)# 01、Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính
02、Chi tiết cơ chế đào tạo Prime Intellect
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường không đồng bộ tách rời
PRIME-RL là khung mô hình và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản huấn luyện Phi tập trung, được thiết kế đặc biệt cho mạng lưới không đồng nhất và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên thích ứng, phân tách cấu trúc quy trình huấn luyện, suy diễn và tải trọng lên, cho phép mỗi nút huấn luyện hoàn thành vòng nhiệm vụ độc lập tại địa phương và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác thực và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện huấn luyện linh hoạt trong môi trường không có lập lịch trung tâm, vừa giảm thiểu độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ nhiều nhiệm vụ song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC###Quan sát Đáng tin cậy & Kiểm tra Địa phương( là cơ chế cốt lõi về khả năng xác minh được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chiến lược". Đây là lần đầu tiên hành vi trong quá trình huấn luyện được chuyển đổi thành đối tượng có thể xác minh, là đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện không cần tin tưởng, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số không đồng bộ
SHARDCAST là giao thức truyền và tổng hợp trọng số được thiết kế bởi Prime Intellect, tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip với chiến lược đồng bộ cục bộ, cho phép nhiều nút liên tục gửi cập nhật từng phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và chu kỳ đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là khung tối ưu hóa truyền thông được nhóm Prime Intellect thực hiện độc lập và mã nguồn mở dựa trên triết lý DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để đối phó với các thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị dị hạt và nút không ổn định. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí truyền thông cao do đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp việc cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, nâng cao đáng kể khả năng tham gia vào đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông quan trọng để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL)Prime Collective Communication Library### là thư viện giao tiếp nhẹ được Prime Intellect thiết kế riêng cho môi trường đào tạo AI Phi tập trung, nhằm giải quyết các nút thắt trong việc thích ứng của các thư viện giao tiếp truyền thống( như NCCL, Gloo) trong các thiết bị khác nhau và mạng có băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén gradient, đồng bộ độ chính xác thấp và phục hồi từ điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp không đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
(# 03、Prime Intellect kích thích mạng và phân công vai trò
Prime Intellect xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên những đóng góp thực sự. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của thỏa thuận bao gồm phát hành nhiệm vụ, đào tạo nút, xác minh lộ trình, tổng hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
![Cốc thánh của Crypto AI: Khám phá tiên phong về đào tạo Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp###
(# 04、INTELLECT-2: Phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect sẽ phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là sản phẩm đầu tiên trên thế giới được phát triển bởi异