Hiện tại không có bằng chứng nào cho thấy AI có thể được kiểm soát an toàn, theo một đánh giá toàn diện. Một nhà nghiên cứu cảnh báo rằng nếu không có bằng chứng về khả năng kiểm soát AI, chúng ta không nên tiếp tục phát triển nó.
Mặc dù vấn đề kiểm soát AI được coi là một trong những thách thức quan trọng nhất đối với nhân loại, nhưng nó vẫn chưa được hiểu rõ, chưa được định nghĩa đầy đủ và chưa được nghiên cứu kỹ lưỡng, tiến sĩ Roman V. Yampolskiy giải thích.
Trong cuốn sách sắp ra mắt của mình, AI: Unexplainable, Unpredictable, Uncontrollable, chuyên gia về an toàn AI, tiến sĩ Yampolskiy, xem xét cách AI có thể làm thay đổi xã hội một cách sâu rộng, không phải lúc nào cũng có lợi cho con người.
Ông giải thích: “Chúng ta đang đối mặt với một sự kiện gần như chắc chắn sẽ xảy ra, có khả năng dẫn đến một thảm họa tồn vong. Không có gì ngạc nhiên khi nhiều người coi đây là vấn đề quan trọng nhất mà nhân loại từng đối mặt. Kết quả có thể là thịnh vượng hoặc diệt vong, và số phận của vũ trụ đang bị đe dọa.”
Trí tuệ siêu việt không thể kiểm soát
Tiến sĩ Yampolskiy đã thực hiện một cuộc đánh giá toàn diện về các tài liệu khoa học liên quan đến AI và khẳng định rằng ông không tìm thấy bằng chứng nào cho thấy AI có thể được kiểm soát an toàn – ngay cả khi có một số biện pháp kiểm soát, chúng cũng không đủ hiệu quả.
Ông giải thích: “Tại sao nhiều nhà nghiên cứu lại cho rằng vấn đề kiểm soát AI có thể giải quyết được? Theo hiểu biết tốt nhất của chúng ta, không có bằng chứng nào cho điều đó, không có bằng chứng xác thực. Trước khi bắt tay vào việc xây dựng một AI có thể kiểm soát, điều quan trọng là phải chứng minh rằng vấn đề này thực sự có thể giải quyết được.”
“Điều này, cùng với các thống kê cho thấy sự phát triển của trí tuệ siêu việt gần như chắc chắn sẽ xảy ra, chứng tỏ rằng chúng ta cần ủng hộ mạnh mẽ hơn nữa các nỗ lực đảm bảo an toàn AI.”
Ông lập luận rằng khả năng tạo ra phần mềm thông minh của con người vượt xa khả năng kiểm soát hoặc thậm chí xác minh nó. Sau khi thực hiện một cuộc đánh giá tài liệu toàn diện, ông nhận thấy rằng các hệ thống trí tuệ tiên tiến không bao giờ có thể được kiểm soát hoàn toàn và do đó sẽ luôn tiềm ẩn rủi ro nhất định, bất kể lợi ích mà chúng mang lại. Theo ông, mục tiêu của cộng đồng AI nên là giảm thiểu rủi ro trong khi tối đa hóa lợi ích tiềm năng.
Những rào cản là gì?
AI (và trí tuệ siêu việt) khác với các chương trình khác ở khả năng học hành vi mới, điều chỉnh hiệu suất và hoạt động một cách bán tự động trong các tình huống mới.
Một vấn đề khi làm cho AI trở nên “an toàn” là số lượng quyết định và lỗi có thể xảy ra khi một thực thể siêu thông minh trở nên mạnh mẽ hơn là vô hạn, do đó số lượng vấn đề an toàn cũng là vô hạn. Chỉ đơn giản dự đoán các vấn đề có thể không khả thi và việc khắc phục chúng bằng các bản vá bảo mật có thể không đủ.
Đồng thời, tiến sĩ Yampolskiy giải thích, AI không thể giải thích được các quyết định của nó, hoặc nếu có, con người cũng không đủ thông minh để hiểu các khái niệm mà AI thực hiện. Nếu chúng ta không hiểu quyết định của AI và chỉ có một “hộp đen”, thì chúng ta không thể hiểu được vấn đề và giảm thiểu nguy cơ xảy ra sự cố trong tương lai.
Ví dụ, các hệ thống AI hiện đã được giao nhiệm vụ đưa ra quyết định trong các lĩnh vực như chăm sóc sức khỏe, đầu tư, tuyển dụng, ngân hàng và an ninh. Những hệ thống này cần phải có khả năng giải thích cách chúng đưa ra quyết định, đặc biệt là để chứng minh rằng chúng không thiên vị.
Tiến sĩ Yampolskiy nhấn mạnh: “Nếu chúng ta quen với việc chấp nhận câu trả lời của AI mà không cần lời giải thích, về cơ bản coi nó như một hệ thống tiên tri, thì chúng ta sẽ không thể nhận ra nếu nó bắt đầu đưa ra các câu trả lời sai hoặc có tính thao túng.”
Kiểm soát cái không thể kiểm soát
Khi khả năng của AI tăng lên, sự tự chủ của nó cũng tăng lên nhưng khả năng kiểm soát của chúng ta lại giảm đi, tiến sĩ Yampolskiy giải thích, và sự tự chủ gia tăng đồng nghĩa với mức độ an toàn giảm xuống.
Ví dụ, để một trí tuệ siêu việt tránh tiếp thu những thông tin sai lệch và loại bỏ mọi thiên kiến từ các lập trình viên của nó, AI có thể bỏ qua tất cả kiến thức có sẵn và tự khám phá lại mọi thứ từ đầu. Tuy nhiên, điều này cũng có thể khiến nó mất đi thiên kiến có lợi cho con người.
“Những thực thể kém thông minh hơn (con người) không thể kiểm soát vĩnh viễn những thực thể thông minh hơn (trí tuệ siêu việt). Điều này không phải vì chúng ta không thể tìm ra một thiết kế an toàn cho trí tuệ siêu việt trong vô số thiết kế có thể có, mà là vì một thiết kế như vậy không tồn tại ngay từ đầu. Trí tuệ siêu việt không nổi loạn, nó vốn dĩ không thể kiểm soát được,” ông giải thích.
“Nhân loại đang đối mặt với một lựa chọn: chúng ta trở thành những đứa trẻ, được chăm sóc nhưng không có quyền kiểm soát, hay chúng ta từ chối một người giám hộ thông minh nhưng vẫn giữ quyền tự chủ và tự do của mình.”
Ông cho rằng có thể tìm ra một điểm cân bằng, nơi chúng ta hy sinh một phần khả năng của AI để đổi lấy một mức độ kiểm soát nhất định, nhưng điều đó cũng đồng nghĩa với việc phải chấp nhận một mức độ tự chủ nhất định của hệ thống.
Căn chỉnh với giá trị của con người
Một giải pháp kiểm soát được đề xuất là thiết kế một cỗ máy tuân theo mệnh lệnh của con người một cách chính xác, nhưng tiến sĩ Yampolskiy chỉ ra rằng điều này có thể dẫn đến mệnh lệnh mâu thuẫn, hiểu sai hoặc bị lợi dụng cho mục đích xấu.
Ông giải thích: “Con người nắm quyền kiểm soát có thể dẫn đến các mệnh lệnh mâu thuẫn hoặc ác ý rõ ràng, trong khi AI kiểm soát thì con người sẽ mất quyền điều hành.”
Nếu AI hoạt động như một cố vấn, nó có thể tránh được các vấn đề liên quan đến việc hiểu sai mệnh lệnh trực tiếp hoặc bị thao túng bởi các mệnh lệnh ác ý, nhưng tác giả lập luận rằng để AI trở thành một cố vấn hữu ích, nó phải có giá trị vượt trội của riêng mình.
“Hầu hết các nhà nghiên cứu an toàn AI đang tìm cách căn chỉnh trí tuệ siêu việt trong tương lai với các giá trị của nhân loại. AI căn chỉnh với giá trị sẽ có thiên kiến theo định nghĩa, dù là thiên kiến có lợi cho con người hay không thì nó vẫn là một thiên kiến. Nghịch lý của AI căn chỉnh giá trị là một người ra lệnh trực tiếp cho AI có thể nhận được câu trả lời ‘không’ khi hệ thống cố gắng làm điều mà người đó thực sự muốn. Nhân loại hoặc được bảo vệ hoặc được tôn trọng, nhưng không thể có cả hai,” ông giải thích.
Giảm thiểu rủi ro
Để giảm thiểu rủi ro của AI, ông cho rằng AI cần phải có khả năng chỉnh sửa được, có tùy chọn “hoàn tác”, bị giới hạn, minh bạch và dễ hiểu bằng ngôn ngữ con người.
Ông đề xuất tất cả AI nên được phân loại là có thể kiểm soát hoặc không thể kiểm soát, đồng thời không loại trừ bất kỳ phương án nào, bao gồm cả việc xem xét lệnh cấm tạm thời hoặc một phần đối với một số công nghệ AI nhất định.
Thay vì nản lòng, ông cho rằng: “Đây là lý do để nhiều người hơn nữa đào sâu nghiên cứu và gia tăng nỗ lực cũng như tài trợ cho nghiên cứu về an toàn và bảo mật AI. Chúng ta có thể không bao giờ đạt được AI an toàn 100%, nhưng chúng ta có thể làm cho AI an toàn hơn tương ứng với nỗ lực của mình, và điều đó chắc chắn tốt hơn là không làm gì cả. Chúng ta cần tận dụng cơ hội này một cách khôn ngoan.”