Lớp tin cậy của AI: Mạng Mira giải quyết vấn đề ảo giác và thiên kiến của AI như thế nào
Gần đây, một mạng thử nghiệm công cộng mang tên Mira đã chính thức ra mắt, với mục tiêu xây dựng một nền tảng đáng tin cậy cho trí tuệ nhân tạo. Điều này đặt ra một câu hỏi quan trọng: Tại sao AI cần phải được tin tưởng? Mira đã giải quyết vấn đề phức tạp này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, một vấn đề thú vị nhưng thường bị bỏ qua là AI tồn tại "ảo giác" hoặc thiên kiến. Cái gọi là "ảo giác" của AI, đơn giản mà nói là AI đôi khi "nói linh tinh", có vẻ chắc chắn đưa ra một số thông tin không đúng sự thật. Ví dụ, khi được hỏi tại sao mặt trăng lại có màu hồng, AI có thể cung cấp một loạt các giải thích có vẻ hợp lý nhưng thực tế lại không có cơ sở.
Sự xuất hiện của "ảo giác" hoặc thiên kiến trong AI liên quan đến một số con đường công nghệ AI hiện tại. Chẳng hạn, AI sinh sinh thông qua việc dự đoán nội dung "có thể xảy ra nhất" để đạt được đầu ra mạch lạc và hợp lý, nhưng phương pháp này đôi khi khó xác minh tính xác thực. Hơn nữa, dữ liệu huấn luyện có thể chứa lỗi, thiên kiến hoặc thậm chí nội dung hư cấu, tất cả đều ảnh hưởng đến chất lượng đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người chứ không phải là sự thật.
Cơ chế sinh ra xác suất hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi sẽ dẫn đến việc AI tạo ra ảo giác. Những đầu ra có thiên kiến hoặc ảo giác này, nếu chỉ giới hạn trong kiến thức thông thường hoặc nội dung giải trí, có thể tạm thời không gây ra hậu quả nghiêm trọng. Nhưng nếu xảy ra trong các lĩnh vực nghiêm ngặt như y tế, pháp lý, hàng không, tài chính, thì có thể tạo ra ảnh hưởng lớn. Do đó, giải quyết vấn đề ảo giác và thiên kiến của AI trở thành một trong những thách thức cốt lõi trong quá trình phát triển AI.
Hiện tại, đã có một số phương pháp cố gắng giải quyết vấn đề này. Một số sử dụng công nghệ tăng cường tìm kiếm để kết hợp AI với cơ sở dữ liệu thời gian thực, ưu tiên xuất ra các sự thật đã được xác minh. Một số khác đưa ra phản hồi từ con người, thông qua việc gán nhãn và giám sát thủ công để sửa chữa lỗi của mô hình.
Dự án Mira chính là một nỗ lực nhằm giải quyết vấn đề thiên kiến và ảo tưởng trong AI. Nó cố gắng xây dựng một lớp tin cậy cho AI, nâng cao độ tin cậy của AI. Vậy, Mira đã đạt được mục tiêu này như thế nào?
Ý tưởng cốt lõi của Mira là xác thực đầu ra AI thông qua sự đồng thuận của nhiều mô hình AI. Nó về cơ bản là một mạng lưới xác thực, sử dụng trí tuệ tập thể của nhiều mô hình AI để đánh giá độ tin cậy của đầu ra AI. Quan trọng hơn, Mira áp dụng cơ chế đồng thuận phi tập trung để xác thực.
Sự xác thực đồng thuận phi tập trung này là một điểm mạnh trong lĩnh vực tiền mã hóa, đồng thời cũng tận dụng đầy đủ lợi thế của sự phối hợp đa mô hình, giảm thiểu thiên lệch và ảo giác thông qua mô hình xác thực tập thể. Về kiến trúc xác thực, giao thức Mira hỗ trợ việc chuyển đổi nội dung phức tạp thành các tuyên bố có thể xác thực độc lập. Những tuyên bố này cần sự tham gia xác thực của các nhà điều hành nút, để đảm bảo tính trung thực của họ, Mira áp dụng cơ chế khuyến khích và trừng phạt kinh tế mã hóa.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng cử thành các tuyên bố có thể xác minh khác nhau, các tuyên bố này được phân phối cho các nút để xác minh, sau đó tổng hợp kết quả để đạt được sự đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối cho các nút khác nhau theo cách phân mảnh ngẫu nhiên.
Các nhà điều hành nút chịu trách nhiệm vận hành mô hình xác thực, xử lý các tuyên bố và nộp kết quả xác thực. Động lực tham gia xác thực của họ đến từ việc có thể kiếm được lợi nhuận. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, tức là giảm tỷ lệ lỗi của AI. Trong các lĩnh vực như y tế, pháp lý, hàng không, tài chính, việc giảm tỷ lệ lỗi có thể tạo ra giá trị khổng lồ, vì vậy khách hàng sẵn lòng trả tiền cho điều này. Để ngăn chặn các nhà điều hành nút tìm cách đầu cơ, các nút liên tục lệch khỏi sự đồng thuận sẽ bị giảm token đặt cọc.
Nói chung, Mira cung cấp một hướng giải quyết mới để đạt được độ tin cậy của AI. Nó xây dựng một mạng xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu thiên kiến và ảo giác của AI, nhằm đáp ứng nhu cầu về độ chính xác và tỷ lệ chính xác cao hơn. Đồng thời, nó cũng mang lại lợi ích cho các tham gia mạng. Nói một cách ngắn gọn, Mira đang cố gắng xây dựng một lớp tin cậy cho AI, điều này sẽ giúp thúc đẩy sự phát triển sâu rộng của ứng dụng AI.
Hiện tại, người dùng có thể tham gia vào mạng thử nghiệm công cộng Mira thông qua ứng dụng Klok. Klok là một ứng dụng trò chuyện LLM dựa trên Mira, cho phép người dùng trải nghiệm đầu ra AI đã được xác minh và có cơ hội kiếm điểm Mira. Mặc dù các mục đích sử dụng điểm trong tương lai vẫn chưa được công bố, nhưng điều này chắc chắn mang đến cho người dùng một cơ hội để trải nghiệm quy trình xác minh AI.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 thích
Phần thưởng
13
4
Chia sẻ
Bình luận
0/400
SadMoneyMeow
· 7giờ trước
Lại bị lừa chơi đùa với đồ ngốc rồi.
Xem bản gốcTrả lời0
QuorumVoter
· 7giờ trước
Ôi trời ơi, có phải giải quyết ảo giác không?
Xem bản gốcTrả lời0
SmartMoneyWallet
· 7giờ trước
Dự án không có dữ liệu hỗ trợ mà lại muốn chơi đùa với mọi người? Hoạt động trên chuỗi vẫn chưa ra mắt đừng có lừa gạt.
Mạng Mira ra mắt: Tạo ra lớp tin cậy AI giải quyết vấn đề thiên kiến và ảo giác
Lớp tin cậy của AI: Mạng Mira giải quyết vấn đề ảo giác và thiên kiến của AI như thế nào
Gần đây, một mạng thử nghiệm công cộng mang tên Mira đã chính thức ra mắt, với mục tiêu xây dựng một nền tảng đáng tin cậy cho trí tuệ nhân tạo. Điều này đặt ra một câu hỏi quan trọng: Tại sao AI cần phải được tin tưởng? Mira đã giải quyết vấn đề phức tạp này như thế nào?
Khi thảo luận về AI, mọi người thường chú ý nhiều hơn đến khả năng mạnh mẽ của nó. Tuy nhiên, một vấn đề thú vị nhưng thường bị bỏ qua là AI tồn tại "ảo giác" hoặc thiên kiến. Cái gọi là "ảo giác" của AI, đơn giản mà nói là AI đôi khi "nói linh tinh", có vẻ chắc chắn đưa ra một số thông tin không đúng sự thật. Ví dụ, khi được hỏi tại sao mặt trăng lại có màu hồng, AI có thể cung cấp một loạt các giải thích có vẻ hợp lý nhưng thực tế lại không có cơ sở.
Sự xuất hiện của "ảo giác" hoặc thiên kiến trong AI liên quan đến một số con đường công nghệ AI hiện tại. Chẳng hạn, AI sinh sinh thông qua việc dự đoán nội dung "có thể xảy ra nhất" để đạt được đầu ra mạch lạc và hợp lý, nhưng phương pháp này đôi khi khó xác minh tính xác thực. Hơn nữa, dữ liệu huấn luyện có thể chứa lỗi, thiên kiến hoặc thậm chí nội dung hư cấu, tất cả đều ảnh hưởng đến chất lượng đầu ra của AI. Nói cách khác, AI học các mẫu ngôn ngữ của con người chứ không phải là sự thật.
Cơ chế sinh ra xác suất hiện tại và mô hình dựa trên dữ liệu gần như không thể tránh khỏi sẽ dẫn đến việc AI tạo ra ảo giác. Những đầu ra có thiên kiến hoặc ảo giác này, nếu chỉ giới hạn trong kiến thức thông thường hoặc nội dung giải trí, có thể tạm thời không gây ra hậu quả nghiêm trọng. Nhưng nếu xảy ra trong các lĩnh vực nghiêm ngặt như y tế, pháp lý, hàng không, tài chính, thì có thể tạo ra ảnh hưởng lớn. Do đó, giải quyết vấn đề ảo giác và thiên kiến của AI trở thành một trong những thách thức cốt lõi trong quá trình phát triển AI.
Hiện tại, đã có một số phương pháp cố gắng giải quyết vấn đề này. Một số sử dụng công nghệ tăng cường tìm kiếm để kết hợp AI với cơ sở dữ liệu thời gian thực, ưu tiên xuất ra các sự thật đã được xác minh. Một số khác đưa ra phản hồi từ con người, thông qua việc gán nhãn và giám sát thủ công để sửa chữa lỗi của mô hình.
Dự án Mira chính là một nỗ lực nhằm giải quyết vấn đề thiên kiến và ảo tưởng trong AI. Nó cố gắng xây dựng một lớp tin cậy cho AI, nâng cao độ tin cậy của AI. Vậy, Mira đã đạt được mục tiêu này như thế nào?
Ý tưởng cốt lõi của Mira là xác thực đầu ra AI thông qua sự đồng thuận của nhiều mô hình AI. Nó về cơ bản là một mạng lưới xác thực, sử dụng trí tuệ tập thể của nhiều mô hình AI để đánh giá độ tin cậy của đầu ra AI. Quan trọng hơn, Mira áp dụng cơ chế đồng thuận phi tập trung để xác thực.
Sự xác thực đồng thuận phi tập trung này là một điểm mạnh trong lĩnh vực tiền mã hóa, đồng thời cũng tận dụng đầy đủ lợi thế của sự phối hợp đa mô hình, giảm thiểu thiên lệch và ảo giác thông qua mô hình xác thực tập thể. Về kiến trúc xác thực, giao thức Mira hỗ trợ việc chuyển đổi nội dung phức tạp thành các tuyên bố có thể xác thực độc lập. Những tuyên bố này cần sự tham gia xác thực của các nhà điều hành nút, để đảm bảo tính trung thực của họ, Mira áp dụng cơ chế khuyến khích và trừng phạt kinh tế mã hóa.
Kiến trúc mạng của Mira bao gồm chuyển đổi nội dung, xác thực phân tán và cơ chế đồng thuận. Đầu tiên, hệ thống phân tách nội dung ứng cử thành các tuyên bố có thể xác minh khác nhau, các tuyên bố này được phân phối cho các nút để xác minh, sau đó tổng hợp kết quả để đạt được sự đồng thuận. Để bảo vệ quyền riêng tư của khách hàng, các tuyên bố sẽ được phân phối cho các nút khác nhau theo cách phân mảnh ngẫu nhiên.
Các nhà điều hành nút chịu trách nhiệm vận hành mô hình xác thực, xử lý các tuyên bố và nộp kết quả xác thực. Động lực tham gia xác thực của họ đến từ việc có thể kiếm được lợi nhuận. Những lợi nhuận này đến từ giá trị mà họ tạo ra cho khách hàng, tức là giảm tỷ lệ lỗi của AI. Trong các lĩnh vực như y tế, pháp lý, hàng không, tài chính, việc giảm tỷ lệ lỗi có thể tạo ra giá trị khổng lồ, vì vậy khách hàng sẵn lòng trả tiền cho điều này. Để ngăn chặn các nhà điều hành nút tìm cách đầu cơ, các nút liên tục lệch khỏi sự đồng thuận sẽ bị giảm token đặt cọc.
Nói chung, Mira cung cấp một hướng giải quyết mới để đạt được độ tin cậy của AI. Nó xây dựng một mạng xác thực đồng thuận phi tập trung dựa trên nhiều mô hình AI, mang lại độ tin cậy cao hơn cho dịch vụ AI của khách hàng, giảm thiểu thiên kiến và ảo giác của AI, nhằm đáp ứng nhu cầu về độ chính xác và tỷ lệ chính xác cao hơn. Đồng thời, nó cũng mang lại lợi ích cho các tham gia mạng. Nói một cách ngắn gọn, Mira đang cố gắng xây dựng một lớp tin cậy cho AI, điều này sẽ giúp thúc đẩy sự phát triển sâu rộng của ứng dụng AI.
Hiện tại, người dùng có thể tham gia vào mạng thử nghiệm công cộng Mira thông qua ứng dụng Klok. Klok là một ứng dụng trò chuyện LLM dựa trên Mira, cho phép người dùng trải nghiệm đầu ra AI đã được xác minh và có cơ hội kiếm điểm Mira. Mặc dù các mục đích sử dụng điểm trong tương lai vẫn chưa được công bố, nhưng điều này chắc chắn mang đến cho người dùng một cơ hội để trải nghiệm quy trình xác minh AI.