Các chuyên gia đã bày tỏ lo ngại vì Generative AI có khả năng thực hiện các chức năng trên phạm vi rộng và có thể phát triển chương trình của riêng chúng. Con người sẽ mất kiểm soát dẫn đến các hậu quả thảm khốc đối với các sinh vật và hành tinh.
Trong tuyên bố chung, một nhóm các chuyên gia hàng đầu về Trí tuệ nhân tạo bao gồm nhiều nhà nghiên cứu tiên phong đã cảnh báo về những mối đe dọa về nguy cơ tiềm ẩn do chính sản phẩm mà họ tạo ra. Tất cả cùng đưa ra một tuyên bố mạnh mẽ vào hôm 30/5, cảnh báo về “nguy cơ tuyệt chủng” từ AI tiên tiến nếu không quản lý đúng cách.
Tuyên bố chung được ký bởi hàng trăm chuyên gia, bao gồm các CEO của OpenAI, DeepMind và Anthropic, nhằm vượt qua các khó khăn trong việc thảo luận công khai về các rủi ro thảm khốc từ AI, theo các tác giả.
Sự kiện diễn ra trong giai đoạn mà mối quan tâm về tác động của AI đối với xã hội ngày càng tăng. Trong khi các công ty và chính phủ đang nỗ lực để đạt được những bước tiến nhảy vọt về khả năng của trí thông minh nhân tạo này. Các nhà lãnh đạo hàng đầu đều có chung nhận thức về tình hình phát triển hiện tại của AI.
Những người ký tên bao gồm một số nhân vật có ảnh hưởng nhất trong ngành AI, như Sam Altman, CEO của OpenAI; Dennis Hassabis, CEO của Google DeepMind; và Dario Amodei, CEO của Anthropic. Các công ty này được coi là tiên phong trong nghiên cứu và phát triển AI, khiến cho việc công nhận các nguy cơ tiềm năng trở nên đáng báo động.
Cùng tham gia ký tuyên bố này, còn bao gồm những nhà nghiên cứu nổi tiếng khác như: Yoshua Bengio, một người tiên phong trong học sâu; Ya-Qin Zhang, một nhà khoa học xuất sắc và phó chủ tịch tập đoàn tại Microsoft; và Geoffrey Hinton, được biết đến như là “cha đẻ của học sâu,” người gần đây đã rời khỏi vị trí của mình tại Google để “nói tự do” về mối đe dọa tồn tại do AI mang lại.
Việc rời khỏi Google của Hinton tháng trước đã thu hút sự chú ý đến quan điểm của ông về khả năng của các hệ thống máy tính mà ông đã dành cả đời nghiên cứu. Ở tuổi 75, giáo sư nổi tiếng đã thể hiện mong muốn tham gia vào các cuộc thảo luận chân thành về những nguy cơ tiềm năng của AI mà không bị ràng buộc bởi việc liên kết doanh nghiệp.
Tuyên bố chung này tiếp nối một sáng kiến tương tự vào tháng Ba khi hàng chục nhà nghiên cứu ký thư ngỏ kêu gọi tạm dừng việc phát triển AI quy mô lớn vượt qua GPT-4 của OpenAI trong 6 tháng. Những người ký thư “tạm dừng” bao gồm các nhân vật nổi tiếng như Elon Musk, Steve Wozniak, Bengio và Gary Marcus.
Mặc dù có những lời kêu gọi thận trọng như vậy, hiện vẫn chưa có sự đồng thuận nào giữa các nhà lãnh đạo ngành công nghiệp và chính sách về cách tiếp cận tốt nhất để điều chỉnh và phát triển AI một cách có trách nhiệm.
Đầu tháng này, các nhà lãnh đạo công nghệ, bao gồm Altman, Amodei và Hassabis, đã gặp Tổng thống Biden và Phó Tổng thống Harris để thảo luận về các quy định tiềm năng. Trong một buổi thẩm vấn Quốc hội sau đó, Altman đã ủng hộ can thiệp của chính phủ, nhấn mạnh sự nghiêm trọng của những rủi ro do các hệ thống AI tiên tiến gây ra và sự cần thiết của quy định để giải quyết những thiệt hại tiềm ẩn.
Trong một bài viết gần đây trên blog, các nhà điều hành của OpenAI đã đưa ra một số đề xuất để quản lý AI một cách có trách nhiệm. Trong số đề xuất của họ là tăng cường sự hợp tác giữa các nhà nghiên cứu AI hàng đầu, nghiên cứu kỹ thuật sâu hơn về các mô hình ngôn ngữ lớn (LLM), và thành lập một tổ chức an toàn AI quốc tế.
Theo nhà khoa học tiên phong trong lĩnh vực AI, Geoffrey Hinton, đã bày tỏ sự lo ngại vì Generative AI có khả năng thực hiện các chức năng trên phạm vi rộng và có thể phát triển chương trình của riêng chúng. Khi đó, con người sẽ không thể kiểm soát đối với các siêu AI sẽ dẫn đến các hậu quả thảm khốc đối với các sinh vật và hành tinh.
Nguyên nhân sâu xa của sự lo ngại về nguy cơ tuyệt chủng từ AI có thể được giải thích bởi các khía cạnh sau:
- Quy mô và tốc độ phát triển của AI: Sự phát triển nhanh chóng của trí tuệ nhân tạo, đặc biệt là trong lĩnh vực học sâu và mô hình ngôn ngữ lớn, đã tạo ra khả năng vượt qua khả năng hiểu biết của con người. Điều này tạo ra mối lo ngại về khả năng kiểm soát và quản lý AI khi nó trở nên tự trị và vượt qua sự hiểu biết và kiểm soát của con người.
- Khả năng tự học và tiến hóa của AI: Một trong những đặc điểm quan trọng của AI là khả năng tự học và tiến hóa. Các hệ thống AI có thể tiếp tục phát triển và cải thiện bản thân mình một cách độc lập, mà không cần sự can thiệp của con người. Điều này có thể dẫn đến sự tiến hóa không kiểm soát của AI và các hệ thống thông minh vượt qua khả năng kiểm soát và dự đoán của chúng ta.
- Thiếu hiểu biết đầy đủ về hệ thống AI: Một phần của lo ngại về AI đến từ việc chúng ta vẫn chưa hiểu rõ các hệ thống này hoạt động như thế nào. Học sâu và các mô hình AI phức tạp có thể trở nên không thể đo lường và thể giải thích. Điều này có dẫn đến việc không thể dự đoán được về cách các hệ thống AI sẽ phản ứng và tương tác với thế giới thực.
- Nguy cơ lạm dụng và rủi ro an ninh: Sự phát triển của AI cũng mang theo những tiềm năng lạm dụng và rủi ro an ninh. Các hệ thống AI có thể được sử dụng để tạo ra vũ khí tự động, tấn công mạng và thâm nhập vào hệ thống quan trọng. Điều này gây lo ngại về việc sự tự động hóa và trí tuệ nhân tạo có thể được sử dụng một cách đáng ngại và gây hại đến con người và xã hội.
Tuyên bố này nhằm kêu gọi các nhà lãnh đạo toàn cầu cần hợp tác để giảm thiểu nguy cơ tuyệt chủng do công nghệ Trí tuệ nhân tạo gây ra. Việc giải quyết các rủi ro mà AI gây ra phải là một ưu tiên toàn cầu cùng với các rủi ro khác như đại dịch và chiến tranh hạt nhân.
(Theo Michael Nuñez & Noor Al-Sibai)
Xem thêm bài viết:
Bố già AI, Geoffrey Hinton đã rời Google và đưa ra cảnh báo về công nghệ
Giám đốc điều hành của OpenAI xác nhận sẽ không đào tạo GPT-5
Các chuyên gia AI hàng đầu và CEO cảnh báo về “nguy cơ tuyệt chủng”
Xem ngay 📹: 👉 Chi tiết: https://4techviews.net/cac-chuyen-gia-ai-hang-dau-va-ceo-canh-bao-ve-nguy-co-tuyet-chung/