Децентралізація AI тренування: від Prime Intellect до Pluralis

Децентралізація тренування: пошук святого грааля в галузі ШІ

У повному циклі цінності штучного інтелекту, навчання моделей є найбільш ресурсомістким та технічно складним етапом, що безпосередньо визначає верхню межу можливостей моделі та фактичну ефективність застосування. На відміну від легковагового виклику на етапі висновків, процес навчання вимагає постійних великих обсягів обчислювальної потужності, складних процесів обробки даних та підтримки алгоритмів оптимізації високої інтенсивності, що робить його справжньою "важкою промисловістю" системи штучного інтелекту. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.

Святий Грааль Crypto AI: Децентралізація тренування на передовій

Централізоване навчання є найпоширенішим традиційним способом, який виконується єдиною організацією на локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи управління кластерами до всіх компонентів навчальної рамки, координується єдиною системою управління. Така глибока співпраця архітектури дозволяє досягти оптимальної ефективності в обміні пам'яттю, синхронізації градієнтів і механізмах відмовостійкості, що робить її дуже придатною для навчання масштабних моделей, таких як GPT, Gemini, з перевагами в високій ефективності та контрольованих ресурсах, але водночас існують проблеми монополії даних, бар'єрів для ресурсів, споживання енергії та ризику єдиної точки.

Розподілене навчання є основним методом навчання великих моделей, його суть полягає в розділенні завдань навчання моделі, які потім розподіляються між кількома машинами для спільного виконання, щоб подолати обмеження обчислювальних і зберігання ресурсів однієї машини. Незважаючи на те, що фізично має "розподілені" характеристики, все ще контролюється централізованими організаціями для координації та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, за допомогою технології високошвидкісної інтерконектної шини NVLink, головний вузол координує всі підзавдання. Основні методи включають:

  • Паралельність даних: кожен вузол тренує різні дані з спільними параметрами, потрібно узгодити ваги моделі
  • Модельна паралельність: розміщення різних частин моделі на різних вузлах для досягнення високої масштабованості
  • Паралельне виконання: поетапне серійне виконання, підвищення пропускної здатності
  • Тензорне паралельне: тонке розподілення матричних обчислень, підвищення паралельної детальності

Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же начальник віддалено керує спільною роботою кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі тренуються саме цим способом.

Святий Грааль Crypto AI: передові дослідження децентралізованого навчання

Децентралізація тренування ж представляє більш відкритий і стійкий до цензури шлях у майбутнє. Його основною характеристикою є: кілька недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або периферійними пристроями ), які спільно виконують завдання тренування без центрального координатора, зазвичай через протоколи, що керують розподілом завдань та співпрацею, а також за допомогою механізму криптостимулів для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:

  • Гетерогенність пристроїв та складність розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
  • Вузьке місце в ефективності зв'язку: нестабільність мережевої комунікації, помітне вузьке місце в синхронізації градієнтів
  • Відсутність надійного виконання: відсутність надійного середовища виконання, важко перевірити, чи дійсно вузли беруть участь у обчисленнях.
  • Відсутність єдиної координації: немає центрального диспетчера, розподіл завдань, механізм відкату помилок складний

Децентралізоване навчання можна розуміти як: група глобальних волонтерів, які кожен вносять свою обчислювальну потужність для спільного навчання моделі, але "справді здійсненне великомасштабне децентралізоване навчання" все ще є системною інженерною проблемою, що охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, верифікацію моделей та інші рівні, але чи можливо "співпрацювати ефективно + заохочувати чесність + отримувати правильні результати" поки що залишається на стадії раннього прототипування.

Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, підкреслює локальне збереження даних та централізовану агрегацію параметрів моделі, що підходить для сцен, де важливе дотримання конфіденційності, таких як медицина, фінанси (. Федеративне навчання має інженерну структуру розподіленого навчання та можливість локальної співпраці, одночасно володіючи перевагами розподілених даних у децентралізованому навчанні, але все ще покладається на надійні координуючі сторони і не має повністю відкритих та антицензурних характеристик. Його можна розглядати як "контрольовану децентралізацію" в контексті дотримання конфіденційності, де навчальні завдання, структура довіри та комунікаційні механізми є відносно помірними, що робить його більш підходящим для промислової перехідної архітектури.

Децентралізація тренування: межі, можливості та реальні шляхи

З точки зору парадигми навчання, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях, через складну структуру завдання, надзвичайно високі вимоги до ресурсів або труднощі співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від високої відеопам'яті, низької затримки та високошвидкісної пропускної здатності, що ускладнює їх ефективне розподілення та синхронізацію в відкритих мережах; завдання, що підлягають суворим обмеженням конфіденційності даних і суверенітету, обмежені правовими та етичними обмеженнями, що унеможливлює їх відкритий обмін; а завдання, що позбавлені основи для співпраці, недостатньо мотивують зовнішніх учасників. Ці межі разом складають реальні обмеження сучасного децентралізованого навчання.

Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, у типах завдань, що характеризуються легкою структурою, простотою паралелізації та можливістю стимулювання, децентралізоване навчання демонструє чітку перспективу застосування. Сюди входять, але не обмежуються: LoRA-тонка настройка, завдання після навчання з поведінковою відповідністю ), такі як RLHF, DPO (, навчання та розмітка даних на основі краудсорсингу, тренування малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання загалом мають високу паралельність, низьку зв'язаність та терпимість до гетерогенної обчислювальної потужності, що робить їх дуже підходящими для кооперативного навчання через P2P-мережі, протоколи Swarm, розподілені оптимізатори тощо.

![Святий Грааль Crypto AI: Децентралізація навчання на передовій])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(

Децентралізація тренування класичних проектів аналіз

Наразі в області децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували значну кількість оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи передові напрямки сучасних теоретичних досліджень; тоді як шляхи реалізації Gensyn та Flock.io є відносно зрозумілими, і вже можна побачити попередній інженерний прогрес. У цій статті буде поетапно розглянуто основні технології та інженерні архітектури п'яти проектів, а також далі обговорюватимуться їхні відмінності та взаємодоповнюючі стосунки в системі децентралізованого навчання ШІ.

) Prime Intellect: Тренувальна траєкторія може бути перевірена, зміцнене навчання, співпраця, мережа піонерів

Prime Intellect прагне створити AI навчальну мережу без необхідності довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему навчання AI з перевіряємими, відкритими та повноцінними механізмами стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.

01、Структура та ключова модульна цінність протоколу Prime Intellect

![Святий Грааль Crypto AI: Децентралізація тренувань на передовій досліджень]###https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(

)# 02、Детальний аналіз ключових механізмів тренування Prime Intellect

#PRIME-RL: Архітектура завдань асинхронного підкріпленого навчання з декомпозицією

PRIME-RL є фреймворком моделювання завдань та виконання, налаштованим Prime Intellect для децентралізованих навчальних сценаріїв, спеціально розробленим для гетерогенних мереж та асинхронних учасників. Він використовує підкріплене навчання як пріоритетний адаптивний об'єкт, структурно декомпозуючи процеси навчання, інференції та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань на місцевому рівні та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. На відміну від традиційних процесів контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в умовах безцентрового розподілу, що знижує складність системи та закладає основу для підтримки паралельного виконання багатьох завдань і еволюції стратегій.

#TOPLOC:Легка система верифікації поведінки тренування

TOPLOC###Достовірне спостереження та перевірка політики-локальності( є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний обрахунок повної моделі, а здійснює верифікацію легковагової структури шляхом аналізу локальної узгодженості траєкторій між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює поведінкові траєкторії в процесі навчання на перевіряємий об'єкт, що є ключовим нововведенням для реалізації розподілу винагороди за навчання без довіри, забезпечуючи життєздатний шлях для створення аудиторської, стимулюючої децентралізованої мережі співпраці в навчанні.

#SHARDCAST: Асинхронна вага агрегування та поширення протоколу

SHARDCAST є протоколом вагового поширення та агрегації, розробленим Prime Intellect, оптимізованим для асинхронного, обмеженого по ширині смуги та з змінним статусом вузлів реального мережевого середовища. Він поєднує механізм розповсюдження gossip з локальною синхронізацією, що дозволяє кільком вузлам продовжувати надсилати часткові оновлення в умовах асинхронного стану, реалізуючи прогресивну конвергенцію ваг та еволюцію з кількома версіями. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до помилок децентралізованого навчання, що є основною основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.

#OpenDiLoCo: Рідкісний асинхронний комунікаційний фреймворк

OpenDiLoCo – це оптимізаційний фреймворк зв'язку, незалежно реалізований та відкритий командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розроблений для вирішення таких викликів, як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів, що часто зустрічаються під час децентралізованого навчання. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільцеві, розширювачі та малі світи, що дозволяє уникнути високих витрат на зв'язок при глобальній синхронізації, покладаючись лише на сусідні локальні вузли для спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та периферійним пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі в глобальному кооперативному навчанні, і є однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.

#PCCL:Бібліотека кооперативного зв'язку

PCCL)Prime Collective Communication Library( є легковаговою бібліотекою зв'язку, спеціально розробленою Prime Intellect для децентралізованого AI навчального середовища, яка має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку в гетерогенних пристроях та мережах з низькою пропускною спроможністю. PCCL підтримує розріджені топології, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної спроможності навчальної мережі та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для створення справді відкритої, недовірчої мережі спільного навчання.

)# 03、Prime Intellect стимулююча мережа та розподіл ролей

Prime Intellect побудував мережу навчання, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороди на основі реального внеску. Протокол функціонує на основі трьох основних ролей:

  • Ініціатор завдання: визначає навчальне середовище, початкову модель, функцію винагороди та критерії валідації
  • Тренувальний вузол: виконання локального тренування, подача оновлень ваг та спостережуваних траєкторій
  • Вузли перевірки: використовують механізм TOPLOC для перевірки достовірності навчальної поведінки та участі у розрахунку винагород і агрегації стратегій.

Ядро процесу угоди включає в себе публікацію завдань, навчання вузлів, перевірку траєкторій, агрегацію ваг та розподіл винагород, що формує стимулююче замкнене коло навколо "реальної навчальної поведінки".

![Крипто AI святий грааль: Децентралізація тренування передових досліджень]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(

)# 04、INTELLECT-2: перше перевірене видання децентралізованої навчальної моделі

Prime Intellect у травні 2025 року випустила INTELLECT-2, це перша у світі модель глибокого навчання, що була навчена за допомогою асинхронного, бездостовірного децентралізованого співробітництва вузлів, з кількістю параметрів 32B. Модель INTELLECT-2 була навчена за допомогою 100+ гетерогенних вузлів GPU, які розташовані на трьох континентах, використовуючи повністю асинхронну архітектуру, час навчання перевищив 400 годин, демонструючи життєздатність і стабільність асинхронної мережі співпраці. Ця модель не лише є проривом у продуктивності, але й є пропозицією Prime Intellect "

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • 4
  • Поділіться
Прокоментувати
0/400
MidnightSellervip
· 07-08 14:28
Обчислювальна потужність卷起来了啊
Переглянути оригіналвідповісти на0
BridgeNomadvip
· 07-08 14:25
децентралізоване навчання штучного інтелекту? ті ж проблеми з довірою, що й місти, якщо чесно... чекайте, поки ми побачимо першу велику експлуатацію
Переглянути оригіналвідповісти на0
JustHereForMemesvip
· 07-08 14:22
Ага, займатися розподіленим навчанням ШІ, справді є на що витратити гроші.
Переглянути оригіналвідповісти на0
LiquidationAlertvip
· 07-08 14:07
приречений роздрібний інвестор加速器 це ж прийшло
Переглянути оригіналвідповісти на0
  • Закріпити