Слияние ИИ и технологий блокчейн: от инфраструктуры до приложений
Искусственный интеллект ( AI ) быстро развивается в последние годы и считается ключевым двигателем новой волны промышленной революции. Появление больших языковых моделей значительно повысило производительность труда в различных отраслях, и Boston Consulting Group оценивает, что GPT принесло около 20% повышения общей производительности труда в США. В то же время, обобщающая способность больших моделей считается новой парадигмой проектирования программного обеспечения; в отличие от традиционного точного кода, современное проектирование программного обеспечения больше ориентируется на обобщенные рамки больших моделей, чтобы поддерживать более широкий спектр модальных входов и выходов. Технологии глубокого обучения принесли новый виток процветания в индустрию ИИ, и эта волна также распространилась на индустрию криптовалют.
В данной статье будет подробно рассмотрен процесс развития AI-индустрии, классификация технологий и влияние глубокого обучения на отрасль. Мы проведем глубокий анализ цепочки создания ценности глубокого обучения, включая GPU, облачные вычисления, источники данных, устройства на краю и т.д., и изучим текущее состояние и тенденции развития. Затем мы по существу исследуем связь между криптовалютами и AI-индустрией, а также проанализируем структуру цепочки создания ценности, связанной с криптовалютами.
AI-индустрия начала развиваться в 50-х годах 20 века. Для реализации видения искусственного интеллекта академическая и промышленная сферы развили множество направлений в разных исторических контекстах. Современные технологии искусственного интеллекта в основном используют методы "машинного обучения", основная идея которых заключается в том, чтобы позволить машинам, используя данные, постоянно итеративно улучшать производительность системы в процессе выполнения задач. Основные шаги включают ввод данных в алгоритмы, обучение моделей, тестирование и развертывание, в конечном итоге достигая автоматизированного прогнозирования.
В настоящее время машинное обучение делится на три основных направления: соединительный подход, символический подход и поведенческий подход, которые соответственно имитируют нервную систему, мышление и поведение человека. Среди них доминирует соединительный подход, представленный нейронными сетями, который также называется глубоким обучением. Архитектура нейронной сети включает входной слой, выходной слой и несколько скрытых слоев; с увеличением числа слоев и нейронов ( и количества параметров ) можно моделировать более сложные универсальные задачи. Путем постоянного ввода данных и настройки параметров в конечном итоге достигается оптимальное состояние, что и является источником "глубины".
Технология глубокого обучения претерпела несколько этапов эволюции: от ранних нейронных сетей до полносвязных нейронных сетей, RNN, CNN, GAN, и, наконец, до современных крупных моделей, таких как GPT, использующих технологию Transformer. Transformer, добавляя преобразователи, может кодировать мультимодальные данные (, такие как аудио, видео, изображения и т.д., в соответствующие числовые представления, что позволяет моделировать любые типы данных.
Развитие ИИ прошло через три технологические волны:
1960-е годы: первая волна была вызвана символистскими технологиями, решившими проблемы общего естественного языка и взаимодействия человека с машиной. В это время появились экспертные системы.
1997 год: IBM Deep Blue победил чемпиона мира по шахматам, что ознаменовало вторую волну развития технологий ИИ.
С 2006 года по настоящее время: три гиганта глубокого обучения представили концепцию глубокого обучения, алгоритмы постепенно эволюционируют, формируя третью технологическую волну, а также период расцвета коннекционизма.
В последние годы в области ИИ произошло множество знаковых событий, в том числе:
2014 год: Гудфеллоу предложил GAN) генеративные состязательные сети(
2015 год: основание OpenAI
2016 год: AlphaGo победил Ли Сидоля
2017 год: Google опубликовал статью о алгоритме Transformer
2018 год: OpenAI выпустила GPT
2020 год: OpenAI выпустила GPT-3
2023 год: Запуск ChatGPT на основе GPT-4 и его быстрое распространение
! [Newcomer Science丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Индустриальная цепочка глубокого обучения
Современные большие языковые модели в основном используют методы глубокого обучения на основе нейронных сетей. Модели, такие как GPT, вызвали новую волну интереса к ИИ, и спрос на данные и вычислительные мощности значительно возрос. Мы сосредоточимся на структуре цепочки поставок алгоритмов глубокого обучения, а также на текущем состоянии, соотношении спроса и предложения и тенденциях будущего.
Обучение больших языковых моделей на основе технологии Transformer ) LLMs ( в основном делится на три этапа:
Предобучение: ввод большого объема данных, поиск оптимальных параметров нейронов. Этот этап требует наибольших вычислительных ресурсов и требует многократной итерации для попытки различных параметров.
Тонкая настройка: использование небольшого, но качественного объема данных для обучения, чтобы повысить качество вывода модели.
Укрепляющее обучение: создание модели вознаграждения для сортировки выходных результатов, используемой для автоматической итерации параметров большой модели. Иногда также требуется участие человека для оценки.
Производительность модели в основном определяется тремя факторами: количеством параметров, объемом и качеством данных, вычислительной мощностью. Чем больше параметров, тем выше предельная способность обобщения модели. Согласно эмпирическому правилу, для предварительного обучения большой модели требуется примерно 6np Flops вычислительной мощности, где n — количество токенов, p — количество параметров.
Раннее обучение ИИ в основном использовало ЦП для предоставления вычислительной мощности, но затем постепенно перешло на ГП, такие как чипы NVIDIA A100, H100 и другие. ГП выполняет вычисления с плавающей запятой через модуль Tensor Core, а данные Flops с точностью FP16/FP32 являются важным показателем производительности чипа.
В качестве примера, GPT-3 имеет 175 миллиардов параметров и 180 миллиардов токенов в обучающих данных. Одно предварительное обучение требует около 3.15*10^22 Flops, и даже с использованием самых современных графических процессоров потребуется несколько сотен дней. С увеличением масштабов модели потребность в вычислительной мощности растет экспоненциально.
В процессе обучения модели хранение данных также сталкивается с проблемами. Из-за ограниченной памяти GPU необходимо часто передавать данные между жестким диском и памятью, что делает пропускную способность чипа ключевым фактором. При параллельном обучении с несколькими GPU скорость передачи данных между чипами также имеет большое значение. Таким образом, вычислительная способность чипа не является единственным узким местом, пропускная способность памяти часто оказывается более критичной.
Индустриальная цепочка глубокого обучения в основном включает в себя следующие этапы:
Поставщик аппаратного обеспечения GPU: NVIDIA занимает монопольное положение на рынке высококачественных AI-чипов. Такие компании, как Google и Intel, также разрабатывают собственные AI-чипы.
Провайдеры облачных услуг: в основном делятся на три категории: традиционные облачные компании ), такие как AWS, Google Cloud (, вертикальные AI провайдеры облачных услуг ), такие как CoreWeave (, и провайдеры услуг по инференции ), такие как Together.ai (.
Поставщик обучающих данных: предоставляет огромные, качественные и специфические данные для больших моделей и моделей в узких областях.
Поставщик базы данных: в основном это векторная база данных, предназначенная для эффективного хранения и обработки неструктурированных данных.
Периферийные устройства: включая системы энергоснабжения и охлаждения для поддержки работы крупных вычислительных кластеров.
Применение: различные AI-приложения, разработанные на основе больших моделей, такие как системы диалога, инструменты для создания и т.д.
! [Newcomer Science丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Отношения между криптовалютой и ИИ
核心 Блокчейн технологии является децентрализованность и отсутствие доверия. Биткойн создал систему передачи ценности без доверия, а Эфириум дальше реализовал децентрализованную, бездоверительную платформу смарт-контрактов. По сути, Блокчейн сеть — это сеть ценностей, каждая транзакция основана на преобразовании ценности базового токена.
В традиционном интернете ценность компании в основном отражается через денежные потоки и коэффициент цены к прибыли. В экосистеме Блокчейн же, родные токены ), такие как ETH(, несут многомерную ценность сети, позволяя не только получать доход от стейкинга, но и выступать в качестве средства обмена ценностью, средства хранения и потребительского товара для сетевой активности. Экономика токенов определяет относительную ценность расчетных единиц экосистемы, хотя сложно установить цену для каждого измерения по отдельности, цена токена в совокупности отражает многомерную ценность.
Привлекательность токенов заключается в том, что они могут придавать ценность любой функции или идее. Токеномика переопределяет и открывает новые способы создания ценности, что имеет решающее значение для всех отраслей, включая ИИ. В индустрии ИИ выпуск токенов может изменить ценность на всех уровнях цепочки поставок, побуждая больше участников углубляться в узкие ниши. Токены не только приносят денежный поток, но также могут повысить ценность инфраструктуры за счет синергетического эффекта, формируя парадигму "толстых протоколов и тонких приложений".
Неизменяемость и бездоверительные свойства технологии Блокчейн также придают практическое значение отрасли ИИ. Это позволяет реализовать некоторые приложения, требующие доверия, такие как обеспечение того, чтобы модели не раскрывали личные данные при использовании пользовательских данных. Когда недостает GPU, вычислительная мощность можно распределять через сеть Блокчейн; когда GPU обновляются, неиспользуемые старые устройства также могут продолжать приносить ценность. Эти преимущества уникальны для глобальных ценностных сетей.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
Обзор проектов цепочки поставок ИИ в сфере криптовалют
Сторона предложения GPU:
Основные проекты включают Render, Golem и другие. Render, как более зрелый проект децентрализованной инфраструктуры, в основном ориентирован на видеорендеринг и другие задачи, не связанные с большими моделями. С ростом спроса на ИИ и итерацией GPU спрос на совместное использование вычислительной мощности GPU может возрасти, предоставляя возможности для оценки стоимости неиспользуемых GPU.
Аппаратная пропускная способность:
Типичные проекты, такие как Meson Network, направлены на создание глобальной сети совместного использования пропускной способности. Однако совместное использование пропускной способности может быть ложной потребностью, поскольку для кластеров высокопроизводительных вычислений задержка локального хранения данных намного ниже, чем у распределенного хранения.
Данные:
Проекты EpiK Protocol, Synesis One, Masa и другие предоставляют услуги по сбору данных для обучения ИИ. В частности, Masa основан на технологии доказательства с нулевым разглашением и поддерживает сбор конфиденциальных данных. Преимущества таких проектов заключаются в том, что они могут осуществлять широкий сбор данных и стимулировать пользователей к внесению данных с помощью токенов.
ZKML)Нулевая информация о машинном обучении(:
Использование технологий нулевых знаний для реализации приватных вычислений и обучения. Основные проекты включают Modulus Labs, Giza и другие. Некоторые универсальные проекты ZK, такие как Axiom и Risc Zero, также заслуживают внимания.
Применение ИИ:
Основная идея заключается в сочетании возможностей ИИ с традиционными приложениями Блокчейн, такими как AI Agent. Fetch.AI является代表性 проектом, который с помощью интеллектуальных агентов помогает пользователям принимать сложные решения на блокчейне.
AI Блокчейн:
Такие проекты, как Tensor, Allora, Hypertensor и др., представляют собой адаптивные сети, специально разработанные для AI-моделей или агентов. Обычно они используют механизмы, подобные обучению с подкреплением, для улучшения параметров модели с помощью оценщиков на блокчейне.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Резюме
Хотя текущее развитие ИИ в основном сосредоточено на технологиях глубокого обучения, существуют и другие потенциальные пути технологий ИИ, на которые стоит обратить внимание. Хотя глубокое обучение, возможно, не сможет реализовать общую искусственный интеллект, оно уже нашло широкое применение в таких областях, как рекомендательные системы, и имеет практическую ценность.
Технология Блокчейн и токеномика приносят новую ценностную дефиницию и механизмы открытия для AI индустрии. Они могут перестроить ценность на всех этапах производственной цепочки AI, стимулировать больше участников и обеспечить эффективное распределение ресурсов через глобальную ценностную сеть.
Тем не менее, децентрализованные GPU-сети все еще имеют недостатки в области пропускной способности и инструментов для разработчиков, и в настоящее время они в основном подходят для неэкстренного обучения небольших моделей. Для крупных предприятий и критически важных задач традиционные облачные сервисы по-прежнему обладают большими преимуществами.
В общем, сочетание ИИ и блокчейна обладает практической полезностью и долгосрочным потенциалом. Токеномика может преобразовать и выявить более широкую ценность, в то время как децентрализованный реестр может решить проблемы доверия, способствуя глобальному движению ценности и обнаружению остаточной ценности. С развитием технологий и улучшением экосистемы интеграция ИИ и блокчейна, вероятно, приведет к большему количеству инноваций и возможностей.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
12 Лайков
Награда
12
4
Поделиться
комментарий
0/400
ContractSurrender
· 13ч назад
мир криптовалютсмарт-контракты一把🔪
Посмотреть ОригиналОтветить0
UncleWhale
· 13ч назад
Бостон действительно смел, достаточно сделать таблицу, чтобы узнать 20%.
ИИ и Блокчейн: от технических исследований до перестройки промышленной цепочки
Слияние ИИ и технологий блокчейн: от инфраструктуры до приложений
Искусственный интеллект ( AI ) быстро развивается в последние годы и считается ключевым двигателем новой волны промышленной революции. Появление больших языковых моделей значительно повысило производительность труда в различных отраслях, и Boston Consulting Group оценивает, что GPT принесло около 20% повышения общей производительности труда в США. В то же время, обобщающая способность больших моделей считается новой парадигмой проектирования программного обеспечения; в отличие от традиционного точного кода, современное проектирование программного обеспечения больше ориентируется на обобщенные рамки больших моделей, чтобы поддерживать более широкий спектр модальных входов и выходов. Технологии глубокого обучения принесли новый виток процветания в индустрию ИИ, и эта волна также распространилась на индустрию криптовалют.
В данной статье будет подробно рассмотрен процесс развития AI-индустрии, классификация технологий и влияние глубокого обучения на отрасль. Мы проведем глубокий анализ цепочки создания ценности глубокого обучения, включая GPU, облачные вычисления, источники данных, устройства на краю и т.д., и изучим текущее состояние и тенденции развития. Затем мы по существу исследуем связь между криптовалютами и AI-индустрией, а также проанализируем структуру цепочки создания ценности, связанной с криптовалютами.
! Новичок в науке丨AI x Crypto: от нуля до пика
История развития AI-индустрии
AI-индустрия начала развиваться в 50-х годах 20 века. Для реализации видения искусственного интеллекта академическая и промышленная сферы развили множество направлений в разных исторических контекстах. Современные технологии искусственного интеллекта в основном используют методы "машинного обучения", основная идея которых заключается в том, чтобы позволить машинам, используя данные, постоянно итеративно улучшать производительность системы в процессе выполнения задач. Основные шаги включают ввод данных в алгоритмы, обучение моделей, тестирование и развертывание, в конечном итоге достигая автоматизированного прогнозирования.
В настоящее время машинное обучение делится на три основных направления: соединительный подход, символический подход и поведенческий подход, которые соответственно имитируют нервную систему, мышление и поведение человека. Среди них доминирует соединительный подход, представленный нейронными сетями, который также называется глубоким обучением. Архитектура нейронной сети включает входной слой, выходной слой и несколько скрытых слоев; с увеличением числа слоев и нейронов ( и количества параметров ) можно моделировать более сложные универсальные задачи. Путем постоянного ввода данных и настройки параметров в конечном итоге достигается оптимальное состояние, что и является источником "глубины".
! Новичок в популярной науке丨AI x Crypto: от нуля до пика
Технология глубокого обучения претерпела несколько этапов эволюции: от ранних нейронных сетей до полносвязных нейронных сетей, RNN, CNN, GAN, и, наконец, до современных крупных моделей, таких как GPT, использующих технологию Transformer. Transformer, добавляя преобразователи, может кодировать мультимодальные данные (, такие как аудио, видео, изображения и т.д., в соответствующие числовые представления, что позволяет моделировать любые типы данных.
Развитие ИИ прошло через три технологические волны:
1960-е годы: первая волна была вызвана символистскими технологиями, решившими проблемы общего естественного языка и взаимодействия человека с машиной. В это время появились экспертные системы.
1997 год: IBM Deep Blue победил чемпиона мира по шахматам, что ознаменовало вторую волну развития технологий ИИ.
С 2006 года по настоящее время: три гиганта глубокого обучения представили концепцию глубокого обучения, алгоритмы постепенно эволюционируют, формируя третью технологическую волну, а также период расцвета коннекционизма.
В последние годы в области ИИ произошло множество знаковых событий, в том числе:
! [Newcomer Science丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(
Индустриальная цепочка глубокого обучения
Современные большие языковые модели в основном используют методы глубокого обучения на основе нейронных сетей. Модели, такие как GPT, вызвали новую волну интереса к ИИ, и спрос на данные и вычислительные мощности значительно возрос. Мы сосредоточимся на структуре цепочки поставок алгоритмов глубокого обучения, а также на текущем состоянии, соотношении спроса и предложения и тенденциях будущего.
Обучение больших языковых моделей на основе технологии Transformer ) LLMs ( в основном делится на три этапа:
Предобучение: ввод большого объема данных, поиск оптимальных параметров нейронов. Этот этап требует наибольших вычислительных ресурсов и требует многократной итерации для попытки различных параметров.
Тонкая настройка: использование небольшого, но качественного объема данных для обучения, чтобы повысить качество вывода модели.
Укрепляющее обучение: создание модели вознаграждения для сортировки выходных результатов, используемой для автоматической итерации параметров большой модели. Иногда также требуется участие человека для оценки.
Производительность модели в основном определяется тремя факторами: количеством параметров, объемом и качеством данных, вычислительной мощностью. Чем больше параметров, тем выше предельная способность обобщения модели. Согласно эмпирическому правилу, для предварительного обучения большой модели требуется примерно 6np Flops вычислительной мощности, где n — количество токенов, p — количество параметров.
Раннее обучение ИИ в основном использовало ЦП для предоставления вычислительной мощности, но затем постепенно перешло на ГП, такие как чипы NVIDIA A100, H100 и другие. ГП выполняет вычисления с плавающей запятой через модуль Tensor Core, а данные Flops с точностью FP16/FP32 являются важным показателем производительности чипа.
В качестве примера, GPT-3 имеет 175 миллиардов параметров и 180 миллиардов токенов в обучающих данных. Одно предварительное обучение требует около 3.15*10^22 Flops, и даже с использованием самых современных графических процессоров потребуется несколько сотен дней. С увеличением масштабов модели потребность в вычислительной мощности растет экспоненциально.
В процессе обучения модели хранение данных также сталкивается с проблемами. Из-за ограниченной памяти GPU необходимо часто передавать данные между жестким диском и памятью, что делает пропускную способность чипа ключевым фактором. При параллельном обучении с несколькими GPU скорость передачи данных между чипами также имеет большое значение. Таким образом, вычислительная способность чипа не является единственным узким местом, пропускная способность памяти часто оказывается более критичной.
Индустриальная цепочка глубокого обучения в основном включает в себя следующие этапы:
Поставщик аппаратного обеспечения GPU: NVIDIA занимает монопольное положение на рынке высококачественных AI-чипов. Такие компании, как Google и Intel, также разрабатывают собственные AI-чипы.
Провайдеры облачных услуг: в основном делятся на три категории: традиционные облачные компании ), такие как AWS, Google Cloud (, вертикальные AI провайдеры облачных услуг ), такие как CoreWeave (, и провайдеры услуг по инференции ), такие как Together.ai (.
Поставщик обучающих данных: предоставляет огромные, качественные и специфические данные для больших моделей и моделей в узких областях.
Поставщик базы данных: в основном это векторная база данных, предназначенная для эффективного хранения и обработки неструктурированных данных.
Периферийные устройства: включая системы энергоснабжения и охлаждения для поддержки работы крупных вычислительных кластеров.
Применение: различные AI-приложения, разработанные на основе больших моделей, такие как системы диалога, инструменты для создания и т.д.
! [Newcomer Science丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(
Отношения между криптовалютой и ИИ
核心 Блокчейн технологии является децентрализованность и отсутствие доверия. Биткойн создал систему передачи ценности без доверия, а Эфириум дальше реализовал децентрализованную, бездоверительную платформу смарт-контрактов. По сути, Блокчейн сеть — это сеть ценностей, каждая транзакция основана на преобразовании ценности базового токена.
В традиционном интернете ценность компании в основном отражается через денежные потоки и коэффициент цены к прибыли. В экосистеме Блокчейн же, родные токены ), такие как ETH(, несут многомерную ценность сети, позволяя не только получать доход от стейкинга, но и выступать в качестве средства обмена ценностью, средства хранения и потребительского товара для сетевой активности. Экономика токенов определяет относительную ценность расчетных единиц экосистемы, хотя сложно установить цену для каждого измерения по отдельности, цена токена в совокупности отражает многомерную ценность.
Привлекательность токенов заключается в том, что они могут придавать ценность любой функции или идее. Токеномика переопределяет и открывает новые способы создания ценности, что имеет решающее значение для всех отраслей, включая ИИ. В индустрии ИИ выпуск токенов может изменить ценность на всех уровнях цепочки поставок, побуждая больше участников углубляться в узкие ниши. Токены не только приносят денежный поток, но также могут повысить ценность инфраструктуры за счет синергетического эффекта, формируя парадигму "толстых протоколов и тонких приложений".
Неизменяемость и бездоверительные свойства технологии Блокчейн также придают практическое значение отрасли ИИ. Это позволяет реализовать некоторые приложения, требующие доверия, такие как обеспечение того, чтобы модели не раскрывали личные данные при использовании пользовательских данных. Когда недостает GPU, вычислительная мощность можно распределять через сеть Блокчейн; когда GPU обновляются, неиспользуемые старые устройства также могут продолжать приносить ценность. Эти преимущества уникальны для глобальных ценностных сетей.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(
Обзор проектов цепочки поставок ИИ в сфере криптовалют
Основные проекты включают Render, Golem и другие. Render, как более зрелый проект децентрализованной инфраструктуры, в основном ориентирован на видеорендеринг и другие задачи, не связанные с большими моделями. С ростом спроса на ИИ и итерацией GPU спрос на совместное использование вычислительной мощности GPU может возрасти, предоставляя возможности для оценки стоимости неиспользуемых GPU.
Типичные проекты, такие как Meson Network, направлены на создание глобальной сети совместного использования пропускной способности. Однако совместное использование пропускной способности может быть ложной потребностью, поскольку для кластеров высокопроизводительных вычислений задержка локального хранения данных намного ниже, чем у распределенного хранения.
Проекты EpiK Protocol, Synesis One, Masa и другие предоставляют услуги по сбору данных для обучения ИИ. В частности, Masa основан на технологии доказательства с нулевым разглашением и поддерживает сбор конфиденциальных данных. Преимущества таких проектов заключаются в том, что они могут осуществлять широкий сбор данных и стимулировать пользователей к внесению данных с помощью токенов.
Использование технологий нулевых знаний для реализации приватных вычислений и обучения. Основные проекты включают Modulus Labs, Giza и другие. Некоторые универсальные проекты ZK, такие как Axiom и Risc Zero, также заслуживают внимания.
Основная идея заключается в сочетании возможностей ИИ с традиционными приложениями Блокчейн, такими как AI Agent. Fetch.AI является代表性 проектом, который с помощью интеллектуальных агентов помогает пользователям принимать сложные решения на блокчейне.
Такие проекты, как Tensor, Allora, Hypertensor и др., представляют собой адаптивные сети, специально разработанные для AI-моделей или агентов. Обычно они используют механизмы, подобные обучению с подкреплением, для улучшения параметров модели с помощью оценщиков на блокчейне.
! [Новичок в науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(
Резюме
Хотя текущее развитие ИИ в основном сосредоточено на технологиях глубокого обучения, существуют и другие потенциальные пути технологий ИИ, на которые стоит обратить внимание. Хотя глубокое обучение, возможно, не сможет реализовать общую искусственный интеллект, оно уже нашло широкое применение в таких областях, как рекомендательные системы, и имеет практическую ценность.
Технология Блокчейн и токеномика приносят новую ценностную дефиницию и механизмы открытия для AI индустрии. Они могут перестроить ценность на всех этапах производственной цепочки AI, стимулировать больше участников и обеспечить эффективное распределение ресурсов через глобальную ценностную сеть.
Тем не менее, децентрализованные GPU-сети все еще имеют недостатки в области пропускной способности и инструментов для разработчиков, и в настоящее время они в основном подходят для неэкстренного обучения небольших моделей. Для крупных предприятий и критически важных задач традиционные облачные сервисы по-прежнему обладают большими преимуществами.
В общем, сочетание ИИ и блокчейна обладает практической полезностью и долгосрочным потенциалом. Токеномика может преобразовать и выявить более широкую ценность, в то время как децентрализованный реестр может решить проблемы доверия, способствуя глобальному движению ценности и обнаружению остаточной ценности. С развитием технологий и улучшением экосистемы интеграция ИИ и блокчейна, вероятно, приведет к большему количеству инноваций и возможностей.