Hầu hết các dự án AI nói về AI đáng tin cậy nhưng ít dự án giải thích cách mà niềm tin đó thực sự được xây dựng. Mạng lưới Mira đang tiếp cận vấn đề theo cách khác bằng cách cho thấy quy trình xác minh thực tế bên trong tài liệu trắng của nó.
Thay vì xác minh toàn bộ phản hồi của AI, Mira trước tiên phân tách các đầu ra thành các tuyên bố nguyên tử nhỏ. Mỗi tuyên bố trở thành một đơn vị độc lập có thể được kiểm tra riêng lẻ. Điều này ngăn chặn các câu trả lời phần nào sai lệch không được coi là chủ yếu đúng.
Những tuyên bố đó sau đó được phân phối qua các nút phi tập trung thông qua sharding. Không có người xác thực nào thấy truy vấn đầy đủ, điều này giảm thiểu rủi ro phối hợp hoặc thao túng.
Việc xác minh được thực hiện thông qua nhiều mô hình chạy trên các nút khác nhau. Các tuyên bố được chuyển thành các câu hỏi trắc nghiệm tiêu chuẩn hóa và được đánh giá nhiều lần. Với việc đặt cược và cắt giảm, việc xác thực không trung thực trở nên không hợp lý về mặt thống kê và kinh tế.
Khi đạt được sự đồng thuận, một chứng chỉ mật mã được đúc trên chuỗi ghi lại các mô hình liên quan, ngưỡng xác minh và dấu thời gian.
Điều này chuyển việc xác minh AI từ các điểm số tin cậy đơn giản sang niềm tin có thể chứng minh cho các hệ thống tự trị. 🚀

$BSB
