OpenAI thành lập Ban an toàn và An ninh mới lãnh đạo bởi các thành viên hội đồng quản trị, bao gồm cả CEO Sam Altman. Động thái này đặt ra câu hỏi về khả năng tự kiểm soát sau khi các lãnh đạo an toàn cấp cao từ chức vào đầu tháng này.
OpenAI đã thành lập Ban An toàn và An ninh mới chưa đầy hai tuần sau khi công ty giải thể nhóm có nhiệm vụ bảo vệ nhân loại khỏi các mối đe dọa hiện hữu từ AI.
Những thành viên của nhóm chịu trách nhiệm về các biện pháp bảo vệ an toàn của OpenAI sẽ bao gồm hai thành viên hội đồng quản trị và Giám đốc điều hành Sam Altman, đặt ra câu hỏi về việc liệu động thái này có gì khác ngoài hoạt động tự kiểm soát trong bối cảnh cuộc đua chóng mặt để giành lợi nhuận và quyền thống trị cùng với đối tác Microsoft hay không.
Ban An toàn và An ninh, do hội đồng quản trị của OpenAI thành lập, sẽ do các thành viên hội đồng Bret Taylor (Chủ tịch), Nicole Seligman, Adam D’Angelo và Sam Altman (CEO) lãnh đạo. Nhóm mới theo sau vụ từ chức cấp cao của người đồng sáng lập Ilya Sutskever và Jan Leike, khiến nhiều người phải ái ngại. “Nhóm Superalignment” trước đây của họ chỉ mới được thành lập vào tháng 7 năm ngoái.
Sau khi từ chức, Leike đã viết trong một tweet trên X (Twitter) vào ngày 17 tháng 5 rằng, mặc dù tin tưởng vào sứ mệnh cốt lõi của công ty, nhưng ông rời đi vì hai bên (sản phẩm và an toàn) “đã đạt đến điểm đột phá”. Leike nói thêm rằng ông “lo ngại rằng chúng tôi không đi theo quỹ đạo” để giải quyết thỏa đáng các vấn đề liên quan đến an toàn khi AI ngày càng thông minh hơn. Anh ấy đăng rằng nhóm Superalignment trong công ty gần đây đã “đi ngược chiều” và rằng “văn hóa và quy trình an toàn đã thụt lùi so với sự phát triển đột phá của sản phẩm”.
Có quan ý kiến nghi ngờ công ty tập đang trung chủ yếu vào “các sản phẩm nổi bật” và cố gắng chống lại các thông tin truyền thông về việc thiếu an toàn. Vì vậy, công ty có thể lập một nhóm an ninh mới do chính những người đó lãnh đạo đang nỗ lực phát triển các sản phẩm đó.
Những thông tin về an toàn vào đầu tháng này không phải là điều đáng lo ngại duy nhất của công ty. Đó là trường hợp một mẫu giọng nói mới được cho là giống với của Scarlett Johansson, người từng hai lần được đề cử giải Oscar. Nam diễn viên Jojo Rabbit sau đó tiết lộ rằng OpenAI Sam Altman đã cố gắng thuyết phục cô cho phép sử dụng giọng nói của mình để đào tạo một người mẫu AI, nhưng cô đã từ chối.
Trong một tuyên bố với Engadget, nhóm của Johansson cho biết cô rất sốc khi OpenAI tuyển chọn một tài năng lồng tiếng “nghe có vẻ giống cô một cách kỳ lạ” sau khi theo đuổi sự cho phép của cô. Tuyên bố nói thêm rằng “những người bạn thân nhất và các cơ quan báo chí của Johansson không thể phân biệt được sự khác biệt”.
OpenAI cũng rút lại các thỏa thuận nói xấu công ty mà họ đã yêu cầu đối với các giám đốc điều hành sắp rời đi, thay đổi giọng điệu và nói rằng họ sẽ không thực thi chúng. Trước đó, công ty buộc các nhân viên sắp nghỉ việc phải lựa chọn giữa việc có thể lên tiếng chống lại công ty với quyền được giữ lại số vốn sở hữu mà họ kiếm được.
Ban An toàn và An ninh có kế hoạch “đánh giá và phát triển hơn nữa” các quy trình và biện pháp bảo vệ của công ty trong 90 ngày tới. Sau đó, nhóm sẽ chia sẻ các đề xuất của mình với toàn thể hội đồng. Sau khi toàn bộ đội ngũ lãnh đạo xem xét kết luận của mình, họ sẽ “chia sẻ công khai thông tin cập nhật về các đề xuất đã được thông qua theo cách phù hợp với an toàn và bảo mật”.
Trong bài đăng trên blog công bố Ban An toàn và An ninh mới, OpenAI xác nhận rằng công ty hiện đang đào tạo mô hình tiếp theo là GPT-4, hứa hẹn sẽ thanh công. Công ty viết: “Mặc dù chúng tôi tự hào xây dựng và cho ra mắt những mô hình dẫn đầu ngành về cả khả năng và độ an toàn, nhưng chúng tôi hoan nghênh một cuộc tranh luận gay gắt vào thời điểm quan trọng này”.