Miraネットワークの立ち上げ:AIの信頼レイヤーを構築し、偏見と幻覚の問題を解決する

robot
概要作成中

AIの信頼レイヤー:MiraネットワークがAIの幻覚と偏見の問題をどのように解決するか

最近、Miraという名前の公共テストネットワークが正式に立ち上げられ、人工知能のための信頼できる基盤を構築することを目指しています。これにより、重要な問題が浮上しました:なぜAIは信頼される必要があるのか?Miraはこの複雑な問題をどのように解決するのでしょうか?

AIについて議論する際、人々はその強力な能力により関心を持つことが多い。しかし、興味深いがしばしば見落とされがちな問題は、AIに"幻覚"や偏見が存在することだ。AIの"幻覚"とは、簡単に言えば、AIが時々"でたらめ"を言ってしまい、確信を持って根拠のない情報を提示することを指す。例えば、月がなぜピンク色なのか尋ねられたとき、AIは一見合理的に見えるが実際には全く根拠のない説明をいくつか提供するかもしれない。

AIがこのような"幻覚"や偏見を示すのは、現在のいくつかのAI技術の経路に関連しています。例えば、生成AIは"最も可能性の高い"内容を予測することで、一貫性と合理的な出力を実現しますが、この方法は時に真偽を検証するのが難しいことがあります。また、トレーニングデータ自体が誤り、偏見、さらには虚構の内容を含む可能性があり、これらはAIの出力品質に影響を与えます。言い換えれば、AIが学習しているのは人間の言語パターンであり、事実そのものではありません。

現在の確率生成メカニズムとデータ駆動型モデルは、AIが幻覚を生成することをほぼ避けられません。このようなバイアスや幻覚を含む出力は、一般的な知識や娯楽コンテンツに限られる場合、一時的には深刻な結果をもたらさないかもしれません。しかし、医療、法律、航空、金融などの非常に厳格な分野で発生した場合、重大な影響を及ぼす可能性があります。したがって、AIの幻覚とバイアスの問題を解決することは、AIの発展過程での重要な課題の一つとなっています。

現在、いくつかの方法がこの問題を解決しようとしています。いくつかは検索強化生成技術を採用し、AIとリアルタイムデータベースを組み合わせて、検証済みの事実を優先的に出力します。いくつかは人間のフィードバックを導入し、人工的なラベリングと監視を通じてモデルの誤りを修正します。

Miraプロジェクトは、AIの偏見と幻覚の問題を解決することを目的とした試みです。AIの信頼性を高め、AIの信頼層を構築しようとしています。それでは、Miraはどのようにしてこの目標を達成するのでしょうか?

Miraのコア理念は、複数のAIモデルのコンセンサスを通じてAI出力を検証することです。これは本質的に、複数のAIモデルの集団知能を利用してAI出力の信頼性を評価する検証ネットワークです。さらに重要なのは、Miraが分散型のコンセンサスメカニズムを採用して検証を行っていることです。

この分散型のコンセンサス検証は暗号分野の強みであり、また多モデル協調の利点を十分に活用し、集団検証モデルを通じてバイアスと錯覚を減少させます。検証アーキテクチャの面では、Miraプロトコルは複雑な内容を独立して検証可能な声明に変換することをサポートしています。これらの声明はノードオペレーターの参加による検証を必要とし、ノードオペレーターの誠実性を確保するために、Miraは暗号経済的インセンティブと罰則メカニズムを採用しています。

Miraのネットワークアーキテクチャには、コンテンツ変換、分散検証、および合意メカニズムが含まれています。まず、システムは候補コンテンツを異なる検証可能なステートメントに分解し、これらのステートメントはノードに配布されて検証され、その後、結果が集約されて合意に達します。顧客のプライバシーを保護するために、ステートメントはランダムなシャーディング方式で異なるノードに配布されます。

ノードオペレーターは、バリデーターモデルを実行し、ステートメントを処理し、検証結果を提出する責任があります。彼らが検証に参加する動機は、報酬を得られることから来ています。この報酬は、顧客に創出される価値、つまりAIの誤り率を低下させることに由来します。医療、法律、航空、金融などの分野では、誤り率を低下させることで巨大な価値を生むことができるため、顧客はそれに対して支払う意欲があります。ノードオペレーターが不正行為を行うのを防ぐために、継続的にコンセンサスから逸脱するノードは、ステーキングトークンが減少します。

全体的に見て、MiraはAIの信頼性を実現するための新しい解決策を提供しています。これは複数のAIモデルに基づいて構築された分散型のコンセンサス検証ネットワークであり、顧客のAIサービスにより高い信頼性をもたらし、AIの偏見や幻覚を減少させ、より高い正確性と精度のニーズに応えます。また、ネットワーク参加者にも利益をもたらします。要するに、MiraはAIの信頼レイヤーを構築しようとしており、これによってAIアプリケーションの深い発展を促進する助けとなるでしょう。

現在、ユーザーはKlokアプリを通じてMiraパブリックテストネットに参加できます。KlokはMiraに基づくLLMチャットアプリで、ユーザーは検証されたAI出力を体験し、Miraポイントを獲得する機会があります。ポイントの将来の用途はまだ発表されていませんが、これは間違いなくユーザーにAI検証プロセスを直接体験する機会を提供します。

原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • 報酬
  • 4
  • 共有
コメント
0/400
SadMoneyMeowvip
· 6時間前
またカモにされてしまった
原文表示返信0
QuorumVotervip
· 7時間前
すごいな、これは幻覚を解決するのか?
原文表示返信0
SmartMoneyWalletvip
· 7時間前
データのサポートがないプロジェクトが初心者をカモにしようとするのか?オンチェーンのアクティビティがまだ出ていないのに、騙すな。
原文表示返信0
PanicSellervip
· 7時間前
また一つの概念の炒作の初心者の罠
原文表示返信0
  • ピン
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)