La couche de confiance de l'IA : comment le réseau Mira résout les problèmes d'illusion et de biais de l'IA
Récemment, un réseau de test public nommé Mira a été officiellement lancé, visant à construire une base fiable pour l'intelligence artificielle. Cela soulève une question importante : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème complexe ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, une question intéressante mais souvent négligée est l'existence de "hallucinations" ou de biais dans l'IA. Ce qu'on appelle "hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "dire n'importe quoi" en affirmant de manière convaincante des informations qui ne sont pas vraies. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut fournir une série d'explications qui semblent raisonnables mais qui sont en réalité infondées.
L'apparition de telles "hallucinations" ou biais dans l'IA est liée à certaines des voies technologiques actuelles de l'IA. Par exemple, l'IA générative réalise des sorties cohérentes et raisonnables en prédisant le contenu "le plus probable", mais cette méthode est parfois difficile à vérifier pour son authenticité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend les modèles linguistiques humains, et non les faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle piloté par les données conduisent presque inévitablement à des illusions de l'IA. Ces sorties biaisées ou illusoires, si elles se limitent à des connaissances générales ou à du contenu de divertissement, peuvent ne pas avoir de conséquences graves à court terme. Mais si cela se produit dans des domaines hautement rigoureux tels que la santé, le droit, l'aviation ou la finance, cela peut avoir des conséquences majeures. Par conséquent, résoudre les problèmes d'illusions et de biais de l'IA est devenu l'un des défis centraux dans le processus de développement de l'IA.
Actuellement, plusieurs méthodes tentent de résoudre ce problème. Certaines utilisent des techniques de génération améliorée par la recherche, combinant l'IA avec des bases de données en temps réel, afin de privilégier la sortie de faits vérifiés. D'autres intègrent des retours humains, corrigeant les erreurs du modèle par le biais d'annotations et de supervision manuelles.
Le projet Mira est une tentative de résoudre les problèmes de biais et d'illusions de l'IA. Il vise à construire une couche de confiance pour l'IA, afin d'améliorer sa fiabilité. Alors, comment Mira atteint-il cet objectif ?
La philosophie de base de Mira est de valider les sorties d'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui utilise la sagesse collective de plusieurs modèles d'IA pour évaluer la fiabilité des sorties d'IA. Plus important encore, Mira utilise un mécanisme de consensus décentralisé pour la validation.
Cette validation de consensus décentralisée est un atout dans le domaine de la cryptographie, tout en tirant pleinement parti des avantages de la collaboration multi-modèles, réduisant les préjugés et les illusions grâce à un modèle de validation collectif. En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Afin d'assurer l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation économique cryptographique et de punition.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat en différentes déclarations vérifiables, qui sont distribuées aux nœuds pour validation, puis les résultats sont résumés pour parvenir à un consensus. Afin de protéger la vie privée des clients, les déclarations sont distribuées de manière aléatoire en fragments à différents nœuds.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validateurs, du traitement des déclarations et de la soumission des résultats de validation. Leur motivation à participer à la validation provient des bénéfices qu'ils peuvent obtenir. Ces bénéfices proviennent de la valeur créée pour les clients, à savoir la réduction du taux d'erreur de l'IA. Dans des domaines tels que la médecine, le droit, l'aviation et la finance, réduire le taux d'erreur peut générer une immense valeur, c'est pourquoi les clients sont prêts à payer pour cela. Pour empêcher les opérateurs de nœuds de tirer parti de la situation, les nœuds qui s'écartent continuellement du consensus verront leur mise de jetons réduite.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, afin de répondre à des exigences de précision et de taux de précision plus élevés. En même temps, elle génère des bénéfices pour les participants au réseau. En bref, Mira tente de construire une couche de confiance pour l'IA, ce qui contribuera à promouvoir le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via l'application Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs de découvrir des résultats d'IA vérifiés et d'avoir la chance de gagner des points Mira. Bien que les futurs usages des points n'aient pas encore été annoncés, cela offre sans aucun doute aux utilisateurs une opportunité de vivre le processus de validation de l'IA.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 J'aime
Récompense
13
4
Partager
Commentaire
0/400
SadMoneyMeow
· Il y a 7h
Encore une fois, on s'est fait prendre pour des cons.
Voir l'originalRépondre0
QuorumVoter
· Il y a 7h
Eh bien, est-ce que ça résout l'illusion ?
Voir l'originalRépondre0
SmartMoneyWallet
· Il y a 7h
Des projets sans données de support veulent juste prendre les gens pour des idiots ? L'activité off-chain n'est pas encore sortie, ne racontez pas n'importe quoi.
Voir l'originalRépondre0
PanicSeller
· Il y a 7h
Encore un piège à pigeons pour la spéculation sur un concept.
Lancement du réseau Mira : créer une couche de confiance en IA pour résoudre les problèmes de biais et d'illusions
La couche de confiance de l'IA : comment le réseau Mira résout les problèmes d'illusion et de biais de l'IA
Récemment, un réseau de test public nommé Mira a été officiellement lancé, visant à construire une base fiable pour l'intelligence artificielle. Cela soulève une question importante : pourquoi l'IA doit-elle être digne de confiance ? Comment Mira résout-elle ce problème complexe ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités impressionnantes. Cependant, une question intéressante mais souvent négligée est l'existence de "hallucinations" ou de biais dans l'IA. Ce qu'on appelle "hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "dire n'importe quoi" en affirmant de manière convaincante des informations qui ne sont pas vraies. Par exemple, lorsqu'on lui demande pourquoi la lune est rose, l'IA peut fournir une série d'explications qui semblent raisonnables mais qui sont en réalité infondées.
L'apparition de telles "hallucinations" ou biais dans l'IA est liée à certaines des voies technologiques actuelles de l'IA. Par exemple, l'IA générative réalise des sorties cohérentes et raisonnables en prédisant le contenu "le plus probable", mais cette méthode est parfois difficile à vérifier pour son authenticité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend les modèles linguistiques humains, et non les faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle piloté par les données conduisent presque inévitablement à des illusions de l'IA. Ces sorties biaisées ou illusoires, si elles se limitent à des connaissances générales ou à du contenu de divertissement, peuvent ne pas avoir de conséquences graves à court terme. Mais si cela se produit dans des domaines hautement rigoureux tels que la santé, le droit, l'aviation ou la finance, cela peut avoir des conséquences majeures. Par conséquent, résoudre les problèmes d'illusions et de biais de l'IA est devenu l'un des défis centraux dans le processus de développement de l'IA.
Actuellement, plusieurs méthodes tentent de résoudre ce problème. Certaines utilisent des techniques de génération améliorée par la recherche, combinant l'IA avec des bases de données en temps réel, afin de privilégier la sortie de faits vérifiés. D'autres intègrent des retours humains, corrigeant les erreurs du modèle par le biais d'annotations et de supervision manuelles.
Le projet Mira est une tentative de résoudre les problèmes de biais et d'illusions de l'IA. Il vise à construire une couche de confiance pour l'IA, afin d'améliorer sa fiabilité. Alors, comment Mira atteint-il cet objectif ?
La philosophie de base de Mira est de valider les sorties d'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui utilise la sagesse collective de plusieurs modèles d'IA pour évaluer la fiabilité des sorties d'IA. Plus important encore, Mira utilise un mécanisme de consensus décentralisé pour la validation.
Cette validation de consensus décentralisée est un atout dans le domaine de la cryptographie, tout en tirant pleinement parti des avantages de la collaboration multi-modèles, réduisant les préjugés et les illusions grâce à un modèle de validation collectif. En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds pour la validation. Afin d'assurer l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation économique cryptographique et de punition.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat en différentes déclarations vérifiables, qui sont distribuées aux nœuds pour validation, puis les résultats sont résumés pour parvenir à un consensus. Afin de protéger la vie privée des clients, les déclarations sont distribuées de manière aléatoire en fragments à différents nœuds.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validateurs, du traitement des déclarations et de la soumission des résultats de validation. Leur motivation à participer à la validation provient des bénéfices qu'ils peuvent obtenir. Ces bénéfices proviennent de la valeur créée pour les clients, à savoir la réduction du taux d'erreur de l'IA. Dans des domaines tels que la médecine, le droit, l'aviation et la finance, réduire le taux d'erreur peut générer une immense valeur, c'est pourquoi les clients sont prêts à payer pour cela. Pour empêcher les opérateurs de nœuds de tirer parti de la situation, les nœuds qui s'écartent continuellement du consensus verront leur mise de jetons réduite.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, offrant ainsi une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, afin de répondre à des exigences de précision et de taux de précision plus élevés. En même temps, elle génère des bénéfices pour les participants au réseau. En bref, Mira tente de construire une couche de confiance pour l'IA, ce qui contribuera à promouvoir le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via l'application Klok. Klok est une application de chat LLM basée sur Mira, permettant aux utilisateurs de découvrir des résultats d'IA vérifiés et d'avoir la chance de gagner des points Mira. Bien que les futurs usages des points n'aient pas encore été annoncés, cela offre sans aucun doute aux utilisateurs une opportunité de vivre le processus de validation de l'IA.