Couche de confiance AI : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, un test public en ligne nommé Mira a été lancé, suscitant des préoccupations dans l'industrie concernant la fiabilité de l'IA. L'objectif du réseau Mira est de construire une couche de confiance pour l'IA, afin de résoudre les problèmes de biais et de "hallucinations" qui peuvent survenir lors de l'utilisation de l'IA. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités puissantes. Cependant, le problème des "hallucinations" ou des biais de l'IA est souvent négligé. Ce que l'on appelle les "hallucinations" de l'IA, c'est tout simplement que l'IA peut parfois "inventer des choses" et raconter des balivernes de manière sérieuse. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut donner une explication qui semble raisonnable mais qui est complètement fictive.
L'apparition de "hallucinations" ou de biais par l'IA est liée à certains des chemins technologiques actuels de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais parfois elle ne peut pas vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire des contenus fictifs, ce qui influence les sorties de l'IA. En d'autres termes, l'IA apprend des modèles de langage humain plutôt que des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données conduisent presque inévitablement à l'apparition d'illusions d'IA. Bien que dans des domaines de connaissance générale ou de contenu de divertissement, cette sortie biaisée ou illusoire puisse ne pas avoir de conséquences directes à court terme, dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance, elle peut avoir des conséquences graves. Par conséquent, la résolution des illusions et des biais de l'IA est devenue l'un des problèmes centraux du processus de développement de l'IA.
Le projet Mira vise à résoudre les problèmes de biais et d'illusions liés à l'IA, à construire une couche de confiance pour l'IA et à améliorer sa fiabilité. Alors, comment Mira réalise-t-il cet objectif ?
La méthode principale de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira est essentiellement un réseau de validation qui assure la fiabilité des sorties de l'IA grâce à une validation par consensus décentralisé. Cette approche combine les avantages de la validation par consensus décentralisé, maîtrisée dans le domaine de la cryptographie, et de la collaboration entre plusieurs modèles, afin de réduire les biais et les illusions par le biais d'un mode de validation collective.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Les opérateurs de nœuds participent à la validation de ces déclarations et garantissent l'honnêteté des opérateurs de nœuds grâce à un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en différentes déclarations vérifiables et les distribue aux nœuds pour validation. Après que les nœuds ont déterminé la validité des déclarations, le système consolide les résultats pour parvenir à un consensus et renvoie les résultats au client. Pour protéger la vie privée des clients, les déclarations seront distribuées de manière aléatoire en fragments à différents nœuds.
Les opérateurs de nœuds génèrent des revenus en exécutant des modèles de validation, en traitant des déclarations et en soumettant des résultats de validation. Ces revenus proviennent de la valeur créée pour les clients, c'est-à-dire de la réduction du taux d'erreur de l'IA dans divers domaines. Pour empêcher les nœuds de répondre de manière aléatoire, les nœuds qui s'écartent continuellement du consensus verront leurs jetons de mise réduits.
Dans l'ensemble, Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. En construisant un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, Mira vise à offrir une plus grande fiabilité aux services d'IA de ses clients, à réduire les biais et les hallucinations de l'IA, et à répondre à des exigences de précision et de taux de précision plus élevés. Cette approche apporte non seulement de la valeur aux clients, mais génère également des bénéfices pour les participants au réseau Mira, et pourrait favoriser le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au réseau de test public de Mira via Klok (une application de chat LLM basée sur Mira), expérimenter des sorties d'IA vérifiées et avoir la chance de gagner des points Mira. Bien que l'utilisation future des points n'ait pas été annoncée, cela offre sans aucun doute aux utilisateurs une occasion de vivre personnellement le niveau de confiance de l'IA.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Réseau Mira : comment la couche de confiance de l'IA élimine les biais et les illusions
Couche de confiance AI : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, un test public en ligne nommé Mira a été lancé, suscitant des préoccupations dans l'industrie concernant la fiabilité de l'IA. L'objectif du réseau Mira est de construire une couche de confiance pour l'IA, afin de résoudre les problèmes de biais et de "hallucinations" qui peuvent survenir lors de l'utilisation de l'IA. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités puissantes. Cependant, le problème des "hallucinations" ou des biais de l'IA est souvent négligé. Ce que l'on appelle les "hallucinations" de l'IA, c'est tout simplement que l'IA peut parfois "inventer des choses" et raconter des balivernes de manière sérieuse. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut donner une explication qui semble raisonnable mais qui est complètement fictive.
L'apparition de "hallucinations" ou de biais par l'IA est liée à certains des chemins technologiques actuels de l'IA. L'IA générative réalise la cohérence et la rationalité en prédisant le contenu "le plus probable", mais parfois elle ne peut pas vérifier la véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais, voire des contenus fictifs, ce qui influence les sorties de l'IA. En d'autres termes, l'IA apprend des modèles de langage humain plutôt que des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données conduisent presque inévitablement à l'apparition d'illusions d'IA. Bien que dans des domaines de connaissance générale ou de contenu de divertissement, cette sortie biaisée ou illusoire puisse ne pas avoir de conséquences directes à court terme, dans des domaines hautement rigoureux tels que la médecine, le droit, l'aviation et la finance, elle peut avoir des conséquences graves. Par conséquent, la résolution des illusions et des biais de l'IA est devenue l'un des problèmes centraux du processus de développement de l'IA.
Le projet Mira vise à résoudre les problèmes de biais et d'illusions liés à l'IA, à construire une couche de confiance pour l'IA et à améliorer sa fiabilité. Alors, comment Mira réalise-t-il cet objectif ?
La méthode principale de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Mira est essentiellement un réseau de validation qui assure la fiabilité des sorties de l'IA grâce à une validation par consensus décentralisé. Cette approche combine les avantages de la validation par consensus décentralisé, maîtrisée dans le domaine de la cryptographie, et de la collaboration entre plusieurs modèles, afin de réduire les biais et les illusions par le biais d'un mode de validation collective.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Les opérateurs de nœuds participent à la validation de ces déclarations et garantissent l'honnêteté des opérateurs de nœuds grâce à un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en différentes déclarations vérifiables et les distribue aux nœuds pour validation. Après que les nœuds ont déterminé la validité des déclarations, le système consolide les résultats pour parvenir à un consensus et renvoie les résultats au client. Pour protéger la vie privée des clients, les déclarations seront distribuées de manière aléatoire en fragments à différents nœuds.
Les opérateurs de nœuds génèrent des revenus en exécutant des modèles de validation, en traitant des déclarations et en soumettant des résultats de validation. Ces revenus proviennent de la valeur créée pour les clients, c'est-à-dire de la réduction du taux d'erreur de l'IA dans divers domaines. Pour empêcher les nœuds de répondre de manière aléatoire, les nœuds qui s'écartent continuellement du consensus verront leurs jetons de mise réduits.
Dans l'ensemble, Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. En construisant un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, Mira vise à offrir une plus grande fiabilité aux services d'IA de ses clients, à réduire les biais et les hallucinations de l'IA, et à répondre à des exigences de précision et de taux de précision plus élevés. Cette approche apporte non seulement de la valeur aux clients, mais génère également des bénéfices pour les participants au réseau Mira, et pourrait favoriser le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au réseau de test public de Mira via Klok (une application de chat LLM basée sur Mira), expérimenter des sorties d'IA vérifiées et avoir la chance de gagner des points Mira. Bien que l'utilisation future des points n'ait pas été annoncée, cela offre sans aucun doute aux utilisateurs une occasion de vivre personnellement le niveau de confiance de l'IA.