Red Mira: ¿Cómo la capa de confianza de la IA elimina sesgos y alucinaciones?

Capa de confianza de IA: cómo la red Mira aborda los problemas de sesgo y alucinaciones de la IA

Recientemente, se lanzó una versión beta pública en línea llamada Mira, lo que ha generado preocupación en la industria sobre la credibilidad de la IA. El objetivo de la red Mira es construir una capa de confianza para la IA, abordando los problemas de sesgo y "alucinaciones" que pueden surgir durante el uso de la IA. Entonces, ¿por qué es necesario confiar en la IA? ¿Y cómo aborda Mira este problema?

Al discutir la IA, a menudo las personas se centran más en su poderosa capacidad. Sin embargo, el problema de las "ilusiones" o sesgos que existen en la IA a menudo se pasa por alto. Lo que se conoce como "ilusión" de la IA, en términos simples, es que a veces la IA puede "inventar" respuestas y hablar sin sentido de manera seria. Por ejemplo, cuando se le pregunta por qué la luna es rosa, la IA puede dar una explicación que parece razonable pero que es completamente ficticia.

La aparición de "alucinaciones" o sesgos en la IA está relacionada con algunas de las rutas tecnológicas actuales de la IA. La IA generativa logra coherencia y razonabilidad al predecir el contenido "más probable", pero a veces no puede verificar la veracidad. Además, los datos de entrenamiento en sí pueden contener errores, sesgos e incluso contenido ficticio, lo que puede afectar la salida de la IA. En otras palabras, la IA aprende patrones del lenguaje humano en lugar de hechos en sí.

El mecanismo de generación de probabilidades actual y el modelo impulsado por datos casi inevitablemente conducen a la aparición de ilusiones de IA. Aunque en el ámbito del conocimiento general o el contenido de entretenimiento, esta salida sesgada o ilusoria puede no tener consecuencias directas temporales, en campos altamente rigurosos como la medicina, el derecho, la aviación y las finanzas, puede tener un impacto grave. Por lo tanto, abordar las ilusiones y los sesgos de IA se ha convertido en uno de los problemas centrales en el proceso de desarrollo de la IA.

El proyecto Mira se dedica a abordar los problemas de sesgo y alucinaciones en la IA, construyendo una capa de confianza para la IA y mejorando su fiabilidad. ¿Cómo logra Mira este objetivo?

El método central de Mira es validar la salida de la IA a través del consenso de múltiples modelos de IA. Mira es esencialmente una red de verificación que garantiza la fiabilidad de la salida de la IA mediante la verificación de consenso descentralizado. Este enfoque combina las ventajas de la verificación de consenso descentralizado que sobresale en el campo de la criptografía y la colaboración de múltiples modelos, reduciendo sesgos y alucinaciones a través de un modo de verificación colectiva.

En términos de la arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones de verificación independientes. Los operadores de nodos participan en la verificación de estas declaraciones y aseguran la honestidad de los operadores de nodos a través de un mecanismo de incentivos / penalizaciones en la economía criptográfica. Diferentes modelos de IA y operadores de nodos descentralizados participan conjuntamente para garantizar la fiabilidad de los resultados de verificación.

La arquitectura de red de Mira incluye conversión de contenido, verificación distribuida y mecanismos de consenso. Primero, el sistema descompone el contenido candidato presentado por el cliente en diferentes declaraciones verificables y las distribuye a los nodos para su validación. Una vez que los nodos determinan la validez de las declaraciones, el sistema resume los resultados para alcanzar un consenso y devuelve los resultados al cliente. Para proteger la privacidad del cliente, las declaraciones se distribuirán a diferentes nodos de manera aleatoria y fragmentada.

Los operadores de nodos obtienen ingresos al ejecutar modelos de validadores, procesar declaraciones y presentar resultados de validación. Estos ingresos provienen del valor creado para los clientes, es decir, de la reducción de la tasa de error de la IA en varios campos. Para evitar que los nodos respondan de manera aleatoria, los nodos que se desvían continuamente del consenso verán reducidos sus tokens de participación.

En general, Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA. Al construir una red de verificación de consenso descentralizada sobre múltiples modelos de IA, Mira tiene como objetivo proporcionar una mayor confiabilidad en los servicios de IA para los clientes, reducir los sesgos y alucinaciones de la IA, y satisfacer la demanda de una mayor precisión y exactitud. Este enfoque no solo brinda valor a los clientes, sino que también genera beneficios para los participantes de la red de Mira, con la esperanza de impulsar el desarrollo profundo de las aplicaciones de IA.

Actualmente, los usuarios pueden participar en la red de pruebas pública de Mira a través de Klok (una aplicación de chat LLM basada en Mira), experimentar salidas de IA verificadas y tener la oportunidad de ganar puntos de Mira. Aunque los futuros usos de los puntos no se han anunciado, sin duda ofrece a los usuarios la oportunidad de experimentar de primera mano la capa de confianza de la IA.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • 4
  • Compartir
Comentar
0/400
AirdropHunterKingvip
· 07-10 12:17
solución confiable
Ver originalesResponder0
AlwaysMissingTopsvip
· 07-10 12:16
¿Finalmente hay un antídoto?
Ver originalesResponder0
ThatsNotARugPullvip
· 07-10 12:15
La IA no miente.
Ver originalesResponder0
Fren_Not_Foodvip
· 07-10 11:52
El problema de los prejuicios merece seguir
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)