Децентрализация тренировки: поиск святого грааля в области ИИ
В полной цепочке создания ценности ИИ обучение моделей является этапом с наибольшим потреблением ресурсов и высоким технологическим порогом, что напрямую определяет пределы возможностей модели и фактическую эффективность применения. В отличие от легковесного вызова на этапе вывода, процесс обучения требует постоянных вложений в масштабные вычислительные мощности, сложные процессы обработки данных и поддержку интенсивных алгоритмов оптимизации, что делает его настоящей "тяжелой промышленностью" в построении систем ИИ. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основной темой данной статьи.
Централизованное обучение является самым распространенным традиционным методом, при котором единая организация завершает весь процесс обучения на локальном высокопроизводительном кластере. Все компоненты, от аппаратного обеспечения и программного обеспечения низкого уровня до системы распределения кластера и фреймворка обучения, координируются единой контрольной системой. Эта глубоко скоординированная архитектура обеспечивает оптимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения крупных моделей, таких как GPT и Gemini, обладая высокими показателями эффективности и контролируемыми ресурсами. Однако при этом существуют проблемы, такие как монополия на данные, барьеры для ресурсов, потребление энергии и риски единой точки отказа.
Распределенное обучение является основным способом обучения больших моделей в настоящее время. Его основная идея заключается в разбиении задачи обучения модели на части, которые распределяются на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Хотя физически он обладает характеристиками "Децентрализация", в целом все еще контролируется и синхронизируется централизованным органом, часто работает в среде высокоскоростной локальной сети, используя технологию высокоскоростной межсоединительной шины NVLink для единой координации всех подзадач главным узлом. Основные методы включают:
Параллельные данные: каждый узел обучает разные данные, параметры общие, необходимо соответствие весов модели
Модельное параллелизм: развертывание различных частей модели на различных узлах для достижения высокой масштабируемости
Параллельные каналы: поэтапное последовательное выполнение, увеличение пропускной способности
Тензорная параллель: тонкая сегментация матричных вычислений, повышение степени параллелизма
Распределенное обучение является комбинацией "централизованного управления + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно управляет сотрудничеством нескольких сотрудников "офисов" для выполнения задачи. В настоящее время почти все основные крупные модели обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытую и устойчивую к цензуре будущую траекторию. Его ключевыми характеристиками являются: несколько недоверяющих узлов ( могут быть домашними компьютерами, облачными GPU или краевыми устройствами ), которые совместно выполняют задачи тренировки без центрального координатора, обычно с помощью протоколов для распределения задач и сотрудничества, и при помощи механизма криптостимулов для обеспечения честности вкладов. Основные проблемы, с которыми сталкивается эта модель, включают:
Гетерогенность устройств и трудности сегментации: высокая сложность координации гетерогенных устройств, низкая эффективность сегментации задач
Отсутствие доверенного исполнения: отсутствие доверенной среды исполнения, затрудняющее проверку того, действительно ли узлы участвуют в вычислениях.
Отсутствие единой координации: нет центрального диспетчера, распределение задач и механизмы отката при сбоях сложны
Децентрализация тренировки может пониматься как: группа глобальных волонтеров, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" все еще является системной инженерной задачей, которая охватывает множество уровней, включая системную архитектуру, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, валидацию моделей и т.д., но вопрос о том, может ли это быть "совместно эффективно + стимулирование честности + правильный результат", все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, что подходит для сценариев, ориентированных на соблюдение конфиденциальности, таких как здравоохранение, финансы (. Федеративное обучение имеет инженерную структуру распределенного обучения и локальные возможности сотрудничества, одновременно обладая преимуществами распределенных данных в Децентрализация обучении, но все же зависит от надежной координирующей стороны и не обладает полностью открытыми и антикоррупционными характеристиками. Это можно рассматривать как "контролируемую Децентрализация" в сценариях соблюдения конфиденциальности, где задачи обучения, структура доверия и коммуникационные механизмы относительно мягкие, что делает его более подходящим в качестве переходной архитектуры развертывания в промышленности.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, крайне высоких требований к ресурсам или больших трудностей сотрудничества, она естественно не подходит для эффективного выполнения между гетерогенными, децентрализованными узлами. Например, обучение больших моделей часто зависит от высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разбиение и синхронизацию в открытой сети; задачи, строго ограниченные конфиденциальностью данных и суверенитетом, подвержены юридическим и этическим ограничениям, что не позволяет открыто делиться; а задачи, основанные на недостатке стимулов для сотрудничества, лишены внешней мотивации для участия. Эти границы вместе составляют реальные ограничения текущего Децентрализованного обучения.
Но это не означает, что Децентрализация обучения является ложной проблемой. На самом деле, в задачах с легкой структурой, легкой параллелизацией и возможностью стимуляции, Децентрализация обучения демонстрирует явные перспективы применения. Включая, но не ограничиваясь: тонкая настройка LoRA, задачи после обучения, связанные с выравниванием поведения ), такие как RLHF, DPO (, задачи обучения и аннотирования с краудсорсингом данных, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии кооперативного обучения с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связанностью и способностью терпеть гетерогенные вычислительные мощности, что делает их идеальными для совместного обучения через P2P сети, протоколы Swarm, распределенные оптимизаторы и другие методы.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентрализация тренировки классических проектов
В настоящее время в передовых областях Децентрализация обучения и федеративного обучения, представительные блокчейн-проекты включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области системной архитектуры и проектирования алгоритмов, представляя собой передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть начальные этапы инженерного прогресса. В этой статье будут последовательно проанализированы основные технологии и инженерные архитектуры, стоящие за этими пятью проектами, а также дополнительно исследованы их различия и взаимодополняющие отношения в системе Децентрализация AI обучения.
) Prime Intellect: Проверяемая траектория обучения в сети совместного обучения.
Prime Intellect стремится создать сеть обучения ИИ, которая не требует доверия, позволяя любому участвовать в обучении и получать надежные награды за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему обучения ИИ с возможностью верификации, открытостью и полной системой стимулов через три основных модуля: PRIME-RL + TOPLOC + SHARDCAST.
01、Структура протокола Prime Intellect и ценность ключевых модулей
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
)# 02、Подробное объяснение ключевых механизмов тренировки Prime Intellect
#PRIME-RL: Архитектура задач асинхронного обучения с подкреплением с декомпозицией
PRIME-RL — это рамочная модель задач и выполнения, разработанная Prime Intellect для Децентрализация тренировочных сценариев, специально созданная для гетерогенных сетей и асинхронного участия. Она использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно декомпозируя процессы обучения, вывода и загрузки весов, позволяя каждой обучающей ноде независимо завершать циклы задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами валидации и агрегирования. В отличие от традиционных процессов обучения с учителем, PRIME-RL лучше подходит для реализации гибкого обучения в средах без центрального управления, снижая сложность системы и закладывая основу для поддержки параллельного выполнения многозадачности и эволюции стратегий.
#TOPLOC:Легковесный механизм верификации поведения в обучении
TOPLOC###Доверенное Наблюдение и Проверка Политики-Локальности( является основным механизмом проверки обучаемости, предложенным Prime Intellect, который используется для определения, действительно ли узел завершил эффективное обучение стратегии на основе данных наблюдений. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от полного пересчета модели, а выполняет верификацию облегченной структуры, анализируя локальную согласованность между "последовательностью наблюдений↔обновлением стратегии". Он впервые преобразует поведенческие траектории в процессе обучения в проверяемые объекты, что является ключевым инновационным решением для реализации распределения наград за обучение без необходимости доверия и предоставляет осуществимый путь для создания аудитируемой и стимулируемой сети децентрализованного кооперативного обучения.
#SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для реальных сетевых условий с асинхронностью, ограниченной пропускной способностью и изменяющимся состоянием узлов. Он сочетает в себе механизм распространения gossip и локальную стратегию синхронизации, позволяя нескольким узлам продолжать частичное обновление в состоянии несовпадения, что обеспечивает постепенное сходимость весов и многоверсионную эволюцию. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно повышает масштабируемость и отказоустойчивость децентрализованного обучения, являясь основным базисом для построения стабильного консенсуса по весам и непрерывной итерации обучения.
#OpenDiLoCo:Разреженная асинхронная коммуникационная структура
OpenDiLoCo — это независимая реализация и открытая коммуникационная оптимизационная рамка, созданная командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind. Она специально разработана для решения таких проблем, как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы, которые часто встречаются в ходе децентрализованного обучения. Архитектура основана на параллелизме данных и использует разреженные топологические структуры, такие как Ring, Expander и Small-World, что позволяет избежать высоких затрат на коммуникацию, связанных с глобальной синхронизацией, и завершить совместное обучение модели, полагаясь только на соседние узлы. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и периферийным устройствам стабильно участвовать в задачах обучения, что значительно увеличивает доступность глобального совместного обучения и является одной из ключевых коммуникационных инфраструктур для построения децентрализованной сети обучения.
#PCCL:Библиотека совместной связи
PCCL)Prime Collective Communication Library( является легковесной библиотекой связи, разработанной Prime Intellect для децентрализованной среды обучения ИИ, направленной на решение проблем адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, является основным компонентом, поддерживающим асинхронные возможности связи протокола OpenDiLoCo. Она значительно улучшает терпимость к пропускной способности и совместимость устройств сети обучения, прокладывая "последнюю милю" связи для создания действительно открытой, не требующей доверия сети совместного обучения.
)# 03、Prime Intellect стимулирует сеть и распределение ролей
Prime Intellect создал сеть тренировки, не требующую разрешений, с возможностью верификации и экономическими стимулами, позволяя любому участвовать в задачах и получать вознаграждения за реальные вклады. Протокол функционирует на основе трех основных ролей:
Инициатор задачи: определение тренировочной среды, начальной модели, функции вознаграждения и стандартов верификации
Обучающие узлы: выполнение локального обучения, отправка обновлений весов и отслеживание траектории
Узлы проверки: Использование механизма TOPLOC для проверки подлинности обучающего поведения и участия в расчете вознаграждений и агрегации стратегий
Ядро процесса протокола включает в себя публикацию задач, обучение узлов, проверку траекторий, агрегацию весов ###SHARDCAST( и распределение вознаграждений, образуя замкнутый цикл стимулов вокруг "реального тренировочного поведения".
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(
Prime Intellect выпустила INTELLECT-2 в мае 2025 года, это первая в мире большая модель глубокого обучения, созданная с помощью асинхронной, доверительной Децентрализация узловой кооперации, с параметрами в 32B. Модель INTELLECT-2 была обучена с помощью более чем 100 гетерогенных узлов GPU, расположенных на трех континентах, с использованием полностью асинхронной архитектуры, общее время обучения составило более 400 часов, демонстрируя жизнеспособность и стабильность асинхронной кооперативной сети. Эта модель не только является прорывом в производительности, но и представляет собой предложение Prime Intellect ".
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
6 Лайков
Награда
6
4
Поделиться
комментарий
0/400
MidnightSeller
· 07-08 14:28
Вычислительная мощность卷起来了啊
Посмотреть ОригиналОтветить0
BridgeNomad
· 07-08 14:25
децентрализованное обучение ИИ? те же проблемы с доверием, что и у мостов, если честно... подождем, пока мы увидим первый крупный взлом
Посмотреть ОригиналОтветить0
JustHereForMemes
· 07-08 14:22
Ахах, заниматься распределенным обучением ИИ, действительно есть деньги на это.
Децентрализация AI тренировки: от Prime Intellect до Pluralis
Децентрализация тренировки: поиск святого грааля в области ИИ
В полной цепочке создания ценности ИИ обучение моделей является этапом с наибольшим потреблением ресурсов и высоким технологическим порогом, что напрямую определяет пределы возможностей модели и фактическую эффективность применения. В отличие от легковесного вызова на этапе вывода, процесс обучения требует постоянных вложений в масштабные вычислительные мощности, сложные процессы обработки данных и поддержку интенсивных алгоритмов оптимизации, что делает его настоящей "тяжелой промышленностью" в построении систем ИИ. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основной темой данной статьи.
Централизованное обучение является самым распространенным традиционным методом, при котором единая организация завершает весь процесс обучения на локальном высокопроизводительном кластере. Все компоненты, от аппаратного обеспечения и программного обеспечения низкого уровня до системы распределения кластера и фреймворка обучения, координируются единой контрольной системой. Эта глубоко скоординированная архитектура обеспечивает оптимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения крупных моделей, таких как GPT и Gemini, обладая высокими показателями эффективности и контролируемыми ресурсами. Однако при этом существуют проблемы, такие как монополия на данные, барьеры для ресурсов, потребление энергии и риски единой точки отказа.
Распределенное обучение является основным способом обучения больших моделей в настоящее время. Его основная идея заключается в разбиении задачи обучения модели на части, которые распределяются на несколько машин для совместного выполнения, чтобы преодолеть ограничения вычислений и хранения на одном компьютере. Хотя физически он обладает характеристиками "Децентрализация", в целом все еще контролируется и синхронизируется централизованным органом, часто работает в среде высокоскоростной локальной сети, используя технологию высокоскоростной межсоединительной шины NVLink для единой координации всех подзадач главным узлом. Основные методы включают:
Распределенное обучение является комбинацией "централизованного управления + распределенного выполнения", аналогично тому, как один и тот же начальник удаленно управляет сотрудничеством нескольких сотрудников "офисов" для выполнения задачи. В настоящее время почти все основные крупные модели обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытую и устойчивую к цензуре будущую траекторию. Его ключевыми характеристиками являются: несколько недоверяющих узлов ( могут быть домашними компьютерами, облачными GPU или краевыми устройствами ), которые совместно выполняют задачи тренировки без центрального координатора, обычно с помощью протоколов для распределения задач и сотрудничества, и при помощи механизма криптостимулов для обеспечения честности вкладов. Основные проблемы, с которыми сталкивается эта модель, включают:
Децентрализация тренировки может пониматься как: группа глобальных волонтеров, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" все еще является системной инженерной задачей, которая охватывает множество уровней, включая системную архитектуру, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, валидацию моделей и т.д., но вопрос о том, может ли это быть "совместно эффективно + стимулирование честности + правильный результат", все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, что подходит для сценариев, ориентированных на соблюдение конфиденциальности, таких как здравоохранение, финансы (. Федеративное обучение имеет инженерную структуру распределенного обучения и локальные возможности сотрудничества, одновременно обладая преимуществами распределенных данных в Децентрализация обучении, но все же зависит от надежной координирующей стороны и не обладает полностью открытыми и антикоррупционными характеристиками. Это можно рассматривать как "контролируемую Децентрализация" в сценариях соблюдения конфиденциальности, где задачи обучения, структура доверия и коммуникационные механизмы относительно мягкие, что делает его более подходящим в качестве переходной архитектуры развертывания в промышленности.
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, крайне высоких требований к ресурсам или больших трудностей сотрудничества, она естественно не подходит для эффективного выполнения между гетерогенными, децентрализованными узлами. Например, обучение больших моделей часто зависит от высокой видеопамяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разбиение и синхронизацию в открытой сети; задачи, строго ограниченные конфиденциальностью данных и суверенитетом, подвержены юридическим и этическим ограничениям, что не позволяет открыто делиться; а задачи, основанные на недостатке стимулов для сотрудничества, лишены внешней мотивации для участия. Эти границы вместе составляют реальные ограничения текущего Децентрализованного обучения.
Но это не означает, что Децентрализация обучения является ложной проблемой. На самом деле, в задачах с легкой структурой, легкой параллелизацией и возможностью стимуляции, Децентрализация обучения демонстрирует явные перспективы применения. Включая, но не ограничиваясь: тонкая настройка LoRA, задачи после обучения, связанные с выравниванием поведения ), такие как RLHF, DPO (, задачи обучения и аннотирования с краудсорсингом данных, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии кооперативного обучения с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связанностью и способностью терпеть гетерогенные вычислительные мощности, что делает их идеальными для совместного обучения через P2P сети, протоколы Swarm, распределенные оптимизаторы и другие методы.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентрализация тренировки классических проектов
В настоящее время в передовых областях Децентрализация обучения и федеративного обучения, представительные блокчейн-проекты включают Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технической инновационности и сложности реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области системной архитектуры и проектирования алгоритмов, представляя собой передовые направления текущих теоретических исследований; в то время как пути реализации Gensyn и Flock.io относительно ясны, и уже можно увидеть начальные этапы инженерного прогресса. В этой статье будут последовательно проанализированы основные технологии и инженерные архитектуры, стоящие за этими пятью проектами, а также дополнительно исследованы их различия и взаимодополняющие отношения в системе Децентрализация AI обучения.
) Prime Intellect: Проверяемая траектория обучения в сети совместного обучения.
Prime Intellect стремится создать сеть обучения ИИ, которая не требует доверия, позволяя любому участвовать в обучении и получать надежные награды за свои вычислительные вклады. Prime Intellect надеется создать децентрализованную систему обучения ИИ с возможностью верификации, открытостью и полной системой стимулов через три основных модуля: PRIME-RL + TOPLOC + SHARDCAST.
01、Структура протокола Prime Intellect и ценность ключевых модулей
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
)# 02、Подробное объяснение ключевых механизмов тренировки Prime Intellect
#PRIME-RL: Архитектура задач асинхронного обучения с подкреплением с декомпозицией
PRIME-RL — это рамочная модель задач и выполнения, разработанная Prime Intellect для Децентрализация тренировочных сценариев, специально созданная для гетерогенных сетей и асинхронного участия. Она использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно декомпозируя процессы обучения, вывода и загрузки весов, позволяя каждой обучающей ноде независимо завершать циклы задач на локальном уровне и сотрудничать через стандартизированные интерфейсы с механизмами валидации и агрегирования. В отличие от традиционных процессов обучения с учителем, PRIME-RL лучше подходит для реализации гибкого обучения в средах без центрального управления, снижая сложность системы и закладывая основу для поддержки параллельного выполнения многозадачности и эволюции стратегий.
#TOPLOC:Легковесный механизм верификации поведения в обучении
TOPLOC###Доверенное Наблюдение и Проверка Политики-Локальности( является основным механизмом проверки обучаемости, предложенным Prime Intellect, который используется для определения, действительно ли узел завершил эффективное обучение стратегии на основе данных наблюдений. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от полного пересчета модели, а выполняет верификацию облегченной структуры, анализируя локальную согласованность между "последовательностью наблюдений↔обновлением стратегии". Он впервые преобразует поведенческие траектории в процессе обучения в проверяемые объекты, что является ключевым инновационным решением для реализации распределения наград за обучение без необходимости доверия и предоставляет осуществимый путь для создания аудитируемой и стимулируемой сети децентрализованного кооперативного обучения.
#SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для реальных сетевых условий с асинхронностью, ограниченной пропускной способностью и изменяющимся состоянием узлов. Он сочетает в себе механизм распространения gossip и локальную стратегию синхронизации, позволяя нескольким узлам продолжать частичное обновление в состоянии несовпадения, что обеспечивает постепенное сходимость весов и многоверсионную эволюцию. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно повышает масштабируемость и отказоустойчивость децентрализованного обучения, являясь основным базисом для построения стабильного консенсуса по весам и непрерывной итерации обучения.
#OpenDiLoCo:Разреженная асинхронная коммуникационная структура
OpenDiLoCo — это независимая реализация и открытая коммуникационная оптимизационная рамка, созданная командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind. Она специально разработана для решения таких проблем, как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы, которые часто встречаются в ходе децентрализованного обучения. Архитектура основана на параллелизме данных и использует разреженные топологические структуры, такие как Ring, Expander и Small-World, что позволяет избежать высоких затрат на коммуникацию, связанных с глобальной синхронизацией, и завершить совместное обучение модели, полагаясь только на соседние узлы. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и периферийным устройствам стабильно участвовать в задачах обучения, что значительно увеличивает доступность глобального совместного обучения и является одной из ключевых коммуникационных инфраструктур для построения децентрализованной сети обучения.
#PCCL:Библиотека совместной связи
PCCL)Prime Collective Communication Library( является легковесной библиотекой связи, разработанной Prime Intellect для децентрализованной среды обучения ИИ, направленной на решение проблем адаптации традиционных библиотек связи в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление после сбоев, может работать на потребительских GPU и нестабильных узлах, является основным компонентом, поддерживающим асинхронные возможности связи протокола OpenDiLoCo. Она значительно улучшает терпимость к пропускной способности и совместимость устройств сети обучения, прокладывая "последнюю милю" связи для создания действительно открытой, не требующей доверия сети совместного обучения.
)# 03、Prime Intellect стимулирует сеть и распределение ролей
Prime Intellect создал сеть тренировки, не требующую разрешений, с возможностью верификации и экономическими стимулами, позволяя любому участвовать в задачах и получать вознаграждения за реальные вклады. Протокол функционирует на основе трех основных ролей:
Ядро процесса протокола включает в себя публикацию задач, обучение узлов, проверку траекторий, агрегацию весов ###SHARDCAST( и распределение вознаграждений, образуя замкнутый цикл стимулов вокруг "реального тренировочного поведения".
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(
)# 04、INTELLECT-2:Первый верифицируемый децентрализованный обучающий модель.
Prime Intellect выпустила INTELLECT-2 в мае 2025 года, это первая в мире большая модель глубокого обучения, созданная с помощью асинхронной, доверительной Децентрализация узловой кооперации, с параметрами в 32B. Модель INTELLECT-2 была обучена с помощью более чем 100 гетерогенных узлов GPU, расположенных на трех континентах, с использованием полностью асинхронной архитектуры, общее время обучения составило более 400 часов, демонстрируя жизнеспособность и стабильность асинхронной кооперативной сети. Эта модель не только является прорывом в производительности, но и представляет собой предложение Prime Intellect ".