- Các nhà khoa học AI cảnh báo về những mối đe dọa tiềm tàng của AI nếu con người mất kiểm soát.
- Các chuyên gia kêu gọi các quốc gia áp dụng một kế hoạch dự phòng toàn cầu để đối phó với các rủi ro.
- Họ than phiền về sự thiếu hụt công nghệ tiên tiến để đối phó với những tác hại của AI.
Các nhà khoa học AI đã lên tiếng cảnh báo về những nguy hiểm tiềm tàng của trí tuệ nhân tạo. Trong một tuyên bố, một nhóm chuyên gia đã cảnh báo về khả năng con người mất kiểm soát đối với AI và kêu gọi một hệ thống quy định phối hợp toàn cầu.
Các nhà khoa học, những người đã đóng vai trò trong việc phát triển công nghệ AI, bày tỏ lo ngại về những tác động có hại tiềm tàng của nó nếu không được kiểm soát. Họ nhấn mạnh sự thiếu hụt khoa học tiên tiến hiện nay để “kiểm soát và bảo vệ” các hệ thống AI, tuyên bố rằng “mất kiểm soát của con người hoặc sử dụng ác ý các hệ thống AI này có thể dẫn đến những hậu quả thảm khốc cho toàn nhân loại.”
Đọc thêm: OpenAI Ra Mắt Mô Hình AI Mới Được Thiết Kế Để 'Suy Nghĩ' Trước Khi Trả Lời
Gillian Hadfield, một học giả pháp lý và giáo sư tại Đại học Johns Hopkins, nhấn mạnh sự cần thiết cấp bách của các biện pháp quy định. Bà nhấn mạnh sự thiếu hụt công nghệ hiện tại để kiểm soát hoặc kiềm chế AI nếu nó vượt qua sự kiểm soát của con người.
Kêu Gọi Kế Hoạch Dự Phòng Toàn Cầu
Các nhà khoa học nhấn mạnh sự cần thiết của một “kế hoạch dự phòng toàn cầu” để cho phép các quốc gia xác định và giải quyết các mối đe dọa do AI gây ra. Họ nhấn mạnh rằng an toàn AI là một lợi ích công cộng toàn cầu đòi hỏi sự hợp tác và quản trị quốc tế.
Các chuyên gia đề xuất ba quy trình chính để điều chỉnh AI:
- Thiết lập các giao thức phản ứng khẩn cấp
- Thực hiện một khung tiêu chuẩn an toàn
- Tiến hành nghiên cứu kỹ lưỡng về an toàn AI
Trong khi giải quyết tình trạng khẩn cấp của việc áp dụng các hướng dẫn quy định mới, các chuyên gia tuyên bố rằng an toàn AI là một lợi ích công cộng toàn cầu cần sự hợp tác và quản trị quốc tế. Họ đưa ra ba quy trình chính liên quan đến việc điều chỉnh AI. Các nhà khoa học khuyến nghị thiết lập các giao thức phản ứng khẩn cấp, thực hiện một khung tiêu chuẩn an toàn và tiến hành nghiên cứu đầy đủ về an toàn AI.
Các quốc gia trên toàn thế giới đang thực hiện các bước để phát triển các quy định và hướng dẫn nhằm giảm thiểu các rủi ro ngày càng tăng của AI. Tại California, hai dự luật, AB 3211 và SB 1047, đã được đề xuất để bảo vệ công chúng khỏi những tác hại tiềm tàng của AI. AB 3211 tập trung vào việc đảm bảo tính minh bạch bằng cách phân biệt giữa nội dung do AI và con người tạo ra. SB 1047 buộc các nhà phát triển AI phải chịu trách nhiệm về những tác hại tiềm tàng do các mô hình của họ gây ra.
Miễn trừ trách nhiệm: Thông tin được trình bày trong bài viết này chỉ nhằm mục đích thông tin và giáo dục. Bài viết không cấu thành lời khuyên tài chính hoặc bất kỳ loại lời khuyên nào. Coin Edition không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh do việc sử dụng nội dung, sản phẩm hoặc dịch vụ được đề cập. Độc giả được khuyên nên thận trọng trước khi thực hiện bất kỳ hành động nào liên quan đến công ty.