La fusión de AI y DePIN: el auge de la red de computación GPU distribuida

La intersección de la IA y DePIN: el auge de las redes de computación GPU distribuidas

Desde 2023, la IA y DePIN se han convertido en tendencias populares en el ámbito de Web3, con una capitalización de mercado de aproximadamente 30 mil millones de dólares para la IA y de aproximadamente 23 mil millones de dólares para DePIN. Este artículo se centra en el campo de intersección de ambos y explora el desarrollo de los protocolos relacionados.

En la pila tecnológica de IA, la red DePIN proporciona utilidad a la IA a través de recursos computacionales. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, lo que dificulta que otros desarrolladores obtengan suficientes GPU para la computación. Esto a menudo lleva a los desarrolladores a elegir proveedores de nube centralizados, pero debido a la necesidad de firmar contratos de hardware de alto rendimiento a largo plazo y poco flexibles, la eficiencia se ve afectada.

DePIN esencialmente ofrece una alternativa más flexible y rentable, utilizando recompensas en tokens para incentivar las contribuciones de recursos que cumplen con los objetivos de la red. En el ámbito de la IA, DePIN externaliza los recursos de GPU de propietarios individuales a centros de datos, formando un suministro unificado para los usuarios que necesitan acceder al hardware. Estas redes DePIN no solo brindan personalización y acceso bajo demanda a los desarrolladores que requieren capacidad de cálculo, sino que también ofrecen ingresos adicionales a los propietarios de GPU.

Hay numerosas redes DePIN de IA en el mercado, este artículo explorará el papel, los objetivos y los aspectos destacados que se han logrado de cada protocolo.

AI y el punto de intersección de DePIN

Resumen de la red DePIN de IA

Render es un pionero en proporcionar capacidad de computación GPU en redes P2P, que anteriormente se centraba en renderizar gráficos para la creación de contenido, y luego amplió su alcance integrando herramientas como Stable Diffusion, abarcando tareas computacionales que incluyen desde campos de radiación neural (NeRF) hasta IA generativa.

Destacar:

  1. Fundada por la empresa de gráficos en la nube OTOY, que posee tecnología ganadora del Oscar.

  2. La red GPU ha sido utilizada por grandes compañías de la industria del entretenimiento como Paramount Pictures, PUBG, Star Trek, entre otras.

  3. Colaborar con Stability AI y Endeavor para integrar modelos de IA en flujos de trabajo de renderizado de contenido 3D utilizando la GPU de Render.

  4. Aprobar múltiples clientes de cálculo, integrar más GPU de redes DePIN

Akash se posiciona como una alternativa "supernube" a plataformas tradicionales de almacenamiento, computación GPU y CPU como AWS(. Aprovechando herramientas amigables para desarrolladores como la plataforma de contenedores de Akash y los nodos de computación gestionados por Kubernetes, puede implementar software sin interrupciones a través de entornos, permitiendo ejecutar cualquier aplicación nativa de la nube.

Destacar:

  1. Tareas de cálculo amplias que van desde la computación general hasta el alojamiento en la red.

  2. AkashML permite que su red GPU ejecute más de 15,000 modelos en Hugging Face, al mismo tiempo que se integra con Hugging Face.

  3. Akash alberga algunas aplicaciones notables, como el chatbot del modelo LLM de Mistral AI, el modelo de texto a imagen SDXL de Stability AI, y el nuevo modelo base AT-1 de Thumper AI.

  4. La plataforma para construir el metaverso, implementar IA y aprendizaje federado está utilizando Supercloud

io.net proporciona acceso a clústeres de GPU en la nube distribuidos, que están diseñados para casos de uso de IA y ML. Agrega GPU de centros de datos, mineros de criptomonedas y otras redes descentralizadas. La empresa era anteriormente una compañía de trading cuantitativo, y tras un aumento significativo en los precios de GPU de alto rendimiento, se trasladó a su negocio actual.

Destacar:

  1. Su IO-SDK es compatible con marcos como PyTorch y Tensorflow, y su arquitectura multicapa puede expandirse dinámicamente según las necesidades de cálculo.

  2. Soporta la creación de 3 tipos diferentes de clústeres, que se pueden iniciar en 2 minutos.

  3. Colaborar con otras redes DePIN ) como Render, Filecoin, Aethir y Exabits (, integrando recursos GPU

Gensyn proporciona capacidad de computación GPU enfocada en el aprendizaje automático y el aprendizaje profundo. Afirma haber logrado un mecanismo de verificación más eficiente que los métodos existentes al combinar conceptos como pruebas de aprendizaje, protocolos de localización precisa basados en gráficos, y juegos de incentivos que involucran la participación y reducción de proveedores de computación.

Destacar:

  1. Se espera que el costo por hora de una GPU equivalente a V100 sea de aproximadamente 0.40 dólares, lo que representa un gran ahorro de costos.

  2. A través de la apilación de pruebas, se puede ajustar el modelo base preentrenado para completar tareas más específicas.

  3. Estos modelos básicos serán descentralizados, de propiedad global, y ofrecerán funciones adicionales además de la red de computación de hardware.

Aethir está diseñado específicamente para implementar GPUs empresariales, centrado en campos de alta intensidad computacional, principalmente IA, aprendizaje automático )ML(, juegos en la nube, etc. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones basadas en la nube, trasladando la carga de trabajo desde dispositivos locales a los contenedores, logrando una experiencia de baja latencia. Para asegurar un servicio de calidad a los usuarios, mueven las GPUs cerca de las fuentes de datos según la demanda y la ubicación, ajustando así los recursos.

Destacar:

  1. Además de AI y juegos en la nube, Aethir también se ha expandido a servicios de teléfonos móviles en la nube, lanzando un teléfono inteligente en la nube descentralizado en colaboración con APhone.

  2. Establecer amplias colaboraciones con grandes empresas Web2 como NVIDIA, Super Micro, HPE, Foxconn y Well Link

  3. Colaborar con múltiples socios en Web3 como CARV, Magic Eden, Sequence, Impossible Finance, etc. ).

Phala Network actúa como la capa de ejecución de soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin necesidad de confianza, diseñada para abordar problemas de privacidad mediante el uso de un entorno de ejecución confiable (TEE). Su capa de ejecución no se utiliza como la capa de computación para modelos de IA, sino que permite que los agentes de IA sean controlados por contratos inteligentes en la cadena.

Destacar:

  1. Actuar como un protocolo de coprocesador de cómputo verificable, al mismo tiempo que permite a los agentes de IA acceder a recursos en la cadena.

  2. Su contrato de agente AI se puede obtener a través de Redpill de los principales modelos de lenguaje como OpenAI, Llama, Claude y Hugging Face.

  3. El futuro incluirá zk-proofs, computación multiparte (MPC), cifrado totalmente homomórfico (FHE) y otros sistemas de prueba múltiple.

  4. En el futuro se soportarán otras GPU TEE como la H100, mejorando la capacidad de cálculo.

AI y el punto de intersección de DePIN

Comparación de proyectos

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque del negocio | Renderizado gráfico y AI | Computación en la nube, renderizado y AI | AI | AI | AI, juegos en la nube y telecomunicaciones | Ejecución de AI en cadena | | Tipo de tarea AI | Inferencia | Ambos | Ambos | Entrenamiento | Entrenamiento | Ejecución | | Precio por trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Cifrado&Hash | Autenticación mTLS | Cifrado de datos | Mapeo seguro | Cifrado | TEE | | Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costos de reserva | Costos bajos | 20% por sesión | Proporcional al monto de la garantía | | Seguridad | Prueba de renderizado | Prueba de participación | Prueba de cálculo | Prueba de participación | Prueba de capacidad de renderizado | Heredado de la cadena de retransmisión | | Certificado de finalización | - | - | Certificado de bloqueo de tiempo | Certificado de aprendizaje | Certificado de trabajo de renderizado | Certificado TEE | | Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo verificador | Prueba remota | | GPU Clúster | No | Sí | Sí | Sí | Sí | No |

( importancia

Disponibilidad de clústeres y computación paralela

El marco de computación distribuida implementó un clúster de GPU, proporcionando un entrenamiento más eficiente sin afectar la precisión del modelo, al mismo tiempo que mejora la escalabilidad. Entrenar modelos de IA complejos requiere una gran capacidad de cálculo, que normalmente debe depender de la computación distribuida para satisfacer la demanda. El modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y fue entrenado en un período de 3 a 4 meses utilizando aproximadamente 25,000 GPU Nvidia A100 en 128 clústeres.

Anteriormente, Render y Akash solo ofrecían GPU de un solo uso, lo que podría haber limitado la demanda del mercado de GPU. Sin embargo, la mayoría de los proyectos clave ahora han integrado clústeres para lograr el cálculo paralelo. io.net está colaborando con otros proyectos como Render, Filecoin y Aethir para incorporar más GPU en su red, y ha logrado implementar más de 3,800 clústeres en el primer trimestre de 2024. Aunque Render no admite clústeres, su funcionamiento es similar al de un clúster, descomponiendo un solo cuadro en múltiples nodos diferentes para procesar simultáneamente un rango diferente de cuadros. Phala actualmente solo admite CPU, pero permite la agrupación de trabajadores de CPU.

Es muy importante integrar el marco de clúster en la red de flujo de trabajo de IA, pero la cantidad y el tipo de GPU de clúster necesarios para satisfacer las necesidades de los desarrolladores de IA es otro problema.

Privacidad de datos

El desarrollo de modelos de IA requiere el uso de grandes conjuntos de datos, que pueden provenir de diversas fuentes y adoptar diferentes formas. Los conjuntos de datos sensibles pueden enfrentar el riesgo de ser expuestos a los proveedores de modelos. Tomar medidas de seguridad adecuadas es crucial para el uso de la IA. Por lo tanto, tener diversos métodos de privacidad de datos es fundamental para devolver el control de los datos a los proveedores de datos.

La mayoría de los proyectos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. Render utiliza cifrado y procesamiento hash al publicar los resultados de renderizado de vuelta a la red, mientras que io.net y Gensyn adoptan alguna forma de cifrado de datos. Akash utiliza autenticación mTLS, permitiendo que solo los proveedores seleccionados por el inquilino reciban datos.

io.net ha colaborado recientemente con Mind Network para lanzar la criptografía completamente homomórfica )FHE###, que permite procesar datos cifrados sin necesidad de descifrarlos primero. Esta innovación puede garantizar mejor la privacidad de los datos que las tecnologías de cifrado existentes.

Phala Network ha introducido un entorno de ejecución confiable (TEE), que es un área segura dentro del procesador principal del dispositivo conectado. A través de este mecanismo de aislamiento, se puede evitar que procesos externos accedan o modifiquen datos, independientemente de su nivel de permiso. Además del TEE, también ha incorporado el uso de zk-proofs en su validador zkDCAP y en la interfaz de línea de comandos jtee, para programas integrados con RiscZero zkVM.

AI y el punto de intersección de DePIN

( Prueba de cálculo completada y control de calidad

Estos proyectos ofrecen GPU que pueden proporcionar capacidad de cálculo para una variedad de servicios. Dado que el rango de servicios es amplio, desde renderizado gráfico hasta cálculos de IA, la calidad final de tales tareas puede no siempre cumplir con los estándares del usuario. Se puede utilizar un comprobante de finalización para indicar que la GPU específica alquilada por el usuario se utilizó efectivamente para ejecutar el servicio requerido, y la verificación de calidad es beneficiosa para los usuarios que solicitan la finalización de tales trabajos.

Después de completar el cálculo, tanto Gensyn como Aethir generarán pruebas para indicar que el trabajo ha sido completado, mientras que la prueba de io.net indica que el rendimiento de la GPU alquilada ha sido plenamente utilizado y no ha habido problemas. Gensyn y Aethir llevarán a cabo un control de calidad sobre los cálculos completados. Para Gensyn, utiliza a los validadores para volver a ejecutar partes de las pruebas generadas para verificar con las pruebas, mientras que el informante actúa como un nivel adicional de revisión para los validadores. Aethir utiliza nodos de verificación para determinar la calidad del servicio, penalizando aquellos servicios que están por debajo del estándar. Render sugiere usar un proceso de resolución de disputas; si el comité de revisión encuentra problemas con un nodo, se sancionará a ese nodo. Phala generará pruebas TEE después de completar, asegurando que el agente de IA ejecute las operaciones necesarias en la cadena.

Estadísticas de hardware

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Cantidad de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Cantidad H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Costo H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ) estimado ### | $0.33 ( estimado ) | - |

AI y el punto de intersección de DePIN

( Requisitos de GPU de alto rendimiento

Debido a que el entrenamiento de modelos de IA requiere GPU de alto rendimiento, los desarrolladores tienden a utilizar GPUs como la A100 y H100 de Nvidia. El rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100,

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
GasFeeCriervip
· 07-11 21:11
¿Por qué todos los proyectos se están acercando a la IA?
Ver originalesResponder0
MissedTheBoatvip
· 07-11 21:09
¿Esta cosa realmente puede ser confiable? Mi pequeña fábrica de Rig de Minera no puede minar en absoluto.
Ver originalesResponder0
HodlNerdvip
· 07-11 21:08
estadísticamente hablando, las redes de GPU distribuidas podrían ser nuestra mejor oportunidad para romper el oligopolio de la IA... la teoría de juegos fascinante en juego aquí, para ser honesto.
Ver originalesResponder0
SatoshiSherpavip
· 07-11 21:05
Ya decía que era un trabajo de asar tarjetas gráficas.
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)