Thêm câu chuyện về AI+Crypto của Buff và tìm hiểu về “AI có thể xác minh”
Nếu các mô hình AI được xem giống như cách chúng ta xem các thuật toán truyền thông xã hội, chúng ta sẽ gặp rắc rối lớn
Tác giả gốc: @lukedelphi
Bản tổng hợp gốc: zhouzhou, BlockBeats
Lưu ý của biên tập viên:Với sự tiến bộ gần đây của AI trong mã hóa Ảnh hưởng của lĩnh vực tiền tệ tiếp tục gia tăng và thị trường bắt đầu tập trung vào vấn đề xác minh của AI. Trong bài viết này, nhiều chuyên gia trong lĩnh vực mã hóa và AI phân tích cách các công nghệ như phân cấp, chuỗi khối và bằng chứng không kiến thức có thể giải quyết rủi ro mà các mô hình AI có thể bị lạm dụng và thảo luận về tương lai của xác minh suy luận, nguồn đóng mô hình và xu hướng lý luận của thiết bị biên.
Sau đây là nội dung gốc (nội dung gốc đã được chỉnh sửa để dễ đọc và dễ hiểu):
Một cuộc thảo luận bàn tròn gần đây đã được ghi lại cho sự kiện AI hàng tháng của Delphi Digital, trong đó bốn nhà sáng lập tập trung vào mã hóa và AI được mời để thảo luận về chủ đề AI có thể kiểm chứng. Sau đây là một số Bài học chính.
Khách: colingagich, ryanmcnutty33 , bất tử và Iridium Eagleemy.
Trong tương lai, các mô hình AI sẽ trở thành một loại quyền lực mềm, ứng dụng kinh tế càng sâu rộng và tập trung thì cơ hội bị lạm dụng càng lớn. Bất kể đầu ra của mô hình có bị thao túng hay không, khả năng nó bị thao túng là có hại.
Nếu quan điểm của chúng ta về các mô hình AI giống với quan điểm về các thuật toán truyền thông xã hội, chúng ta sẽ gặp rắc rối lớn, sự phân quyền, chuỗi khối và khả năng xác minh Tình dục là chìa khóa để giải quyết vấn đề này. Vì AI về cơ bản là một hộp đen nên chúng ta cần tìm cách làm cho các quy trình của AI có thể chứng minh được hoặc xác minh được để đảm bảo nó không bị giả mạo.
Đây chính xác là vấn đề mà lý luận có thể kiểm chứng nhằm giải quyết. Mặc dù các tham luận viên đã đồng ý về vấn đề này nhưng họ đã đi theo những con đường khác nhau để giải quyết.
Cụ thể hơn, lý do có thể kiểm chứng bao gồm: câu hỏi hoặc thông tin đầu vào của tôi không bị giả mạo; mô hình tôi đang sử dụng đúng như mô hình tôi đã hứa; cung cấp, không sửa đổi. Thực ra, định nghĩa này đến từ @Shaughnessy119, nhưng tôi thích sự đơn giản của nó.
Điều này sẽ giúp ích rất nhiều trong vụ án cuối cùng về sự thật hiện nay.
Sử dụng bằng chứng không có kiến thức để xác minh đầu ra của mô hình, không còn nghi ngờ gì nữa rằng ZK là phương pháp an toàn nhất. Tuy nhiên, nó cũng đi kèm với một số đánh đổi, đó là chi phí tính toán tăng theo hệ số từ 100 đến 1000. Ngoài ra, không phải mọi thứ đều có thể dễ dàng chuyển đổi thành mạch, vì vậy một số hàm (chẳng hạn như sigmoid) cần phải được tính gần đúng, có thể xảy ra tổn thất xấp xỉ dấu phẩy động.
Liên quan đến chi phí tính toán, nhiều nhóm đang nỗ lực cải tiến công nghệ ZK tiên tiến nhất để giảm đáng kể chi phí. Mặc dù các mô hình ngôn ngữ lớn rất cồng kềnh nhưng hầu hết các trường hợp sử dụng tài chính đều có thể tương đối nhỏ, chẳng hạn như các mô hình phân bổ vốn, do đó chi phí chung trở nên không đáng kể. Môi trường thực thi đáng tin cậy (TEE) phù hợp với các trường hợp sử dụng có yêu cầu thấp hơn về bảo mật tối đa nhưng nhạy cảm hơn với chi phí hoặc kích thước mô hình.
Travient của Ambient đã nói về cách họ lên kế hoạch xác thực suy luận trên một mô hình phân mảnh rất lớn và đây không phải là vấn đề chung mà là vấn đề cụ thể đối với một giải pháp mô hình cụ thể. Tuy nhiên, vì Ambient vẫn đang trong giai đoạn tàng hình nên công việc này tạm thời sẽ được giữ bí mật và chúng ta sẽ cần chú ý đến bài báo sắp tới.
Phương pháp lạc quan, nghĩa là không có bằng chứng nào được tạo ra trong quá trình suy luận, nhưng nút thực hiện lý luận sẽ được yêu cầu cam kết mã thông báo nếu nút bị nghi vấn và hoạt động không đúng. được tìm thấy, đồng xu cam kết sẽ bị trừ, điều này đã nhận được một số phản đối từ khách hàng.
Đầu tiên, để đạt được điều này, cần có một đầu ra xác định và để đạt được điều này cần phải thực hiện một số thỏa hiệp, chẳng hạn như đảm bảo rằng tất cả các nút sử dụng cùng một kết quả ngẫu nhiên. hạt giống. Thứ hai, nếu 10 tỷ USD gặp rủi ro thì bao nhiêu tài sản thế chấp là đủ để đảm bảo an ninh tài chính? Cuối cùng vẫn chưa có câu trả lời rõ ràng cho câu hỏi này, điều này nhấn mạnh tầm quan trọng của việc cho người tiêu dùng lựa chọn xem họ có muốn trả tiền cho chứng nhận hoàn chỉnh hay không.
Đối với các câu hỏi về mô hình nguồn đóng, cả phòng thí nghiệm suy luận và mạng aizel đều có thể hỗ trợ. Điều này đặt ra một số lập luận triết học, niềm tin không đòi hỏi kiến thức về mô hình đang chạy, vì vậy các mô hình riêng tư không được mong muốn và trái ngược với AI có thể kiểm chứng. Tuy nhiên, trong một số trường hợp, việc hiểu hoạt động bên trong của một mô hình có thể dẫn đến thao túng và đôi khi cách duy nhất để giải quyết vấn đề này là biến mô hình thành nguồn đóng. Nó đủ để tạo niềm tin rằng một mô hình nguồn đóng vẫn đáng tin cậy sau 100 hoặc 1000 lần xác thực, mặc dù không có quyền truy cập vào trọng số của nó.
Cuối cùng, chúng tôi thảo luận xem liệu khả năng suy luận AI sẽ chuyển sang các thiết bị biên (chẳng hạn như điện thoại và máy tính xách tay) hay không do các vấn đề như quyền riêng tư, độ trễ và băng thông. Sự đồng thuận là sự thay đổi này đang đến, nhưng nó sẽ phải lặp lại nhiều lần.
Đối với các mô hình lớn, không gian, nhu cầu tính toán và yêu cầu mạng đều là vấn đề. Tuy nhiên, các mẫu máy ngày càng nhỏ hơn và các thiết bị ngày càng mạnh mẽ hơn, vì vậy sự thay đổi dường như đang diễn ra nhưng nó vẫn chưa thực sự đến. Tuy nhiên, hiện tại nếu chúng ta có thể giữ quá trình suy luận ở chế độ riêng tư, chúng ta vẫn có thể đạt được nhiều lợi ích của suy luận cục bộ mà không gặp phải các chế độ lỗi.
Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
Solana Lập Kỷ Lục Phí Nhưng Đối Mặt Rủi Ro Lâu Dài
Thợ đào BTC bán tháo khi mục tiêu 100K USD xa vời
Sai lầm 1 tỷ USD từ 2 chiếc pizza Papa John’s năm 2010
Theo dõi 3 đồng crypto mới ra mắt tuần này!