Mira mạng: Cách lớp tin cậy của AI loại bỏ thiên kiến và ảo giác

Lớp tin cậy AI: Mạng Mira giải quyết vấn đề thiên kiến và ảo giác của AI như thế nào

Gần đây, một phiên bản thử nghiệm công cộng trên mạng có tên là Mira đã được ra mắt, gây ra sự quan tâm trong ngành về vấn đề độ tin cậy của AI. Mục tiêu của mạng Mira là xây dựng một lớp tin cậy cho AI, giải quyết các vấn đề về thiên kiến và "ảo giác" có thể xảy ra trong quá trình sử dụng AI. Vậy tại sao AI cần phải được tin tưởng? Mira đã giải quyết vấn đề này như thế nào?

Khi thảo luận về AI, mọi người thường chú ý nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, vấn đề "ảo giác" hoặc thiên kiến mà AI tồn tại thường bị bỏ qua. Cái được gọi là "ảo giác" của AI, nói một cách đơn giản, là AI đôi khi sẽ "bịa đặt", nói những điều vô lý một cách nghiêm túc. Ví dụ, khi được hỏi tại sao mặt trăng lại có màu hồng, AI có thể đưa ra một lời giải thích có vẻ hợp lý nhưng hoàn toàn hư cấu.

Sự xuất hiện "ảo giác" hoặc thiên kiến của AI liên quan đến một số hướng công nghệ AI hiện tại. AI sinh ra đạt được tính mạch lạc và hợp lý bằng cách dự đoán nội dung "có khả năng nhất", nhưng đôi khi không thể xác minh tính xác thực. Hơn nữa, dữ liệu đào tạo có thể chứa lỗi, thiên kiến hoặc thậm chí nội dung hư cấu, tất cả đều ảnh hưởng đến đầu ra của AI. Nói cách khác, AI học các mô hình ngôn ngữ của con người chứ không phải sự thật bản thân.

Cơ chế sinh xác suất hiện tại và mô hình dữ liệu dẫn đến sự xuất hiện của ảo giác AI gần như không thể tránh khỏi. Mặc dù trong các lĩnh vực kiến thức chung hoặc nội dung giải trí, đầu ra có thành kiến hoặc ảo giác này có thể không gây ra hậu quả trực tiếp trong thời gian ngắn, nhưng trong các lĩnh vực nghiêm ngặt như y tế, pháp luật, hàng không, tài chính, nó có thể tạo ra những ảnh hưởng nghiêm trọng. Do đó, việc giải quyết ảo giác và thành kiến của AI trở thành một trong những vấn đề cốt lõi trong quá trình phát triển AI.

Dự án Mira chính là nhằm giải quyết vấn đề thiên lệch và ảo giác trong AI, xây dựng một lớp tin cậy cho AI, nâng cao độ tin cậy của AI. Vậy, Mira đã thực hiện mục tiêu này như thế nào?

Phương pháp cốt lõi của Mira là xác minh đầu ra của AI thông qua sự đồng thuận của nhiều mô hình AI. Mira về cơ bản là một mạng lưới xác minh, đảm bảo độ tin cậy của đầu ra AI thông qua sự xác minh đồng thuận phi tập trung. Phương pháp này kết hợp lợi thế của việc xác minh đồng thuận phi tập trung mà lĩnh vực mã hóa chuyên môn và sự hợp tác của nhiều mô hình, thông qua chế độ xác minh tập thể nhằm giảm thiểu thiên lệch và ảo giác.

Trong cấu trúc xác minh, giao thức Mira hỗ trợ chuyển đổi nội dung phức tạp thành các tuyên bố xác minh độc lập. Các nhà điều hành nút tham gia vào việc xác minh những tuyên bố này và đảm bảo tính trung thực của các nhà điều hành nút thông qua cơ chế khuyến khích/ trừng phạt kinh tế mã hóa. Các mô hình AI khác nhau và các nhà điều hành nút phân tán cùng tham gia để đảm bảo độ tin cậy của kết quả xác minh.

Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng viên mà khách hàng gửi thành các tuyên bố có thể xác thực khác nhau và phân phối cho các nút để xác thực. Sau khi các nút xác định tính hợp lệ của các tuyên bố, hệ thống tổng hợp kết quả để đạt được sự đồng thuận và trả kết quả về cho khách hàng. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối đến các nút khác nhau theo cách phân mảnh ngẫu nhiên.

Các nhà điều hành nút thu được lợi nhuận bằng cách vận hành mô hình xác thực, xử lý các tuyên bố và nộp kết quả xác thực. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, tức là giảm tỷ lệ lỗi của AI trong các lĩnh vực khác nhau. Để ngăn chặn các nút phản hồi ngẫu nhiên, các nút liên tục lệch khỏi sự đồng thuận sẽ bị giảm số token đã đặt cọc.

Tổng thể, Mira cung cấp một cách tiếp cận mới để đảm bảo độ tin cậy của AI. Bằng cách xây dựng một mạng lưới xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, Mira nhằm mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu thiên kiến và ảo giác của AI, đáp ứng nhu cầu về độ chính xác và tỷ lệ chính xác cao hơn. Phương pháp này không chỉ mang lại giá trị cho khách hàng mà còn mang lại lợi ích cho những người tham gia mạng lưới Mira, hứa hẹn thúc đẩy sự phát triển sâu rộng của ứng dụng AI.

Hiện tại, người dùng có thể tham gia vào mạng thử nghiệm công khai của Mira thông qua Klok (một ứng dụng trò chuyện LLM dựa trên Mira), trải nghiệm các đầu ra AI đã được xác thực và có cơ hội kiếm điểm Mira. Mặc dù mục đích tương lai của điểm vẫn chưa được công bố, nhưng điều này chắc chắn cung cấp cho người dùng một cơ hội để trải nghiệm trực tiếp lớp tin cậy của AI.

Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Phần thưởng
  • 4
  • Chia sẻ
Bình luận
0/400
AirdropHunterKingvip
· 07-10 12:17
Giải pháp đáng tin cậy
Xem bản gốcTrả lời0
AlwaysMissingTopsvip
· 07-10 12:16
Cuối cùng có thuốc giải rồi sao?
Xem bản gốcTrả lời0
ThatsNotARugPullvip
· 07-10 12:15
AI sẽ không nói dối.
Xem bản gốcTrả lời0
Fren_Not_Foodvip
· 07-10 11:52
Vấn đề thiên kiến đáng được theo dõi
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)