Big Tech thận trọng di chuyển sang công nghệ AI sau khi ChatGPT ra mắt. Google, Facebook và Microsoft đã giúp xây dựng nền tảng của AI. Các công ty nhỏ hơn đang đưa nó đến với đại chúng, buộc Big Tech phải phản ứng.
Ba tháng trước khi ChatGPT ra mắt vào tháng 11, công ty mẹ của Facebook là Meta đã phát hành một chatbot tương tự. Nhưng không giống như hiện tượng ChatGPT ngay lập tức trở nên thịnh hành, với hơn một triệu người dùng trong năm ngày đầu tiên, Blenderbot của Meta thật nhàm chán, nhà khoa học trí tuệ nhân tạo đứng đầu của Meta, Yann LeCun cho biết.
“Lý do của sự nhàm chán là vì nó được phát triển một cách an toàn,” LeCun cho biết vào tuần trước tại một diễn đàn do Công ty cố vấn AI Collective tổ chức. Ông ấy cho là do Meta “quá cẩn thận trong việc kiểm duyệt nội dung”, chẳng hạn như chỉ đạo chatbot thay đổi chủ đề nếu người dùng hỏi về tôn giáo. Trái lại, ChatGPT sẽ trò chuyện về khái niệm sai lầm trong Kinh Qur’an, viết lời cầu nguyện cho một giáo sĩ Do Thái gửi đến Quốc hội và so sánh Chúa với một cái vỉ đập ruồi.
ChatGPT hiện đang nhanh chóng trở thành xu hướng khi Microsoft – Công ty gần đây đã đầu tư hàng tỷ đô la vào công ty đứng sau chatbot, OpenAI và đang làm việc để tích hợp nó vào phần mềm văn phòng phổ biến của mình và bán quyền truy cập vào công cụ này cho các doanh nghiệp khác. Theo các cuộc phỏng vấn với sáu nhân viên hiện tại và trước đây của Google và Meta, một số người trong số họ yêu cầu giấu tên vì họ biết ChatGPT đang gây áp lực cho những gã khổng lồ công nghệ bao gồm Meta và Google.
Tại Meta, gần đây các nhân viên đã chia sẻ các bản ghi nhớ nội bộ thúc giục công ty tăng tốc quy trình phê duyệt AI để tận dụng công nghệ mới nhất, theo một trong số họ. Google, công ty đã đi tiên phong trong một số công nghệ nền tảng của ChatGPT, gần đây đã ban hành “mã đỏ” xung quanh việc tung ra các sản phẩm AI và đề xuất một “làn xanh” để rút ngắn quá trình đánh giá và giảm thiểu các tác hại tiềm ẩn, theo một báo cáo trên New York Times.
ChatGPT, cùng với các công cụ chuyển văn bản thành hình ảnh như DALL-E 2 và Stable Diffusion, là một phần của làn sóng phần mềm mới có tên là Generative AI. Họ tạo ra các tác phẩm của riêng mình bằng cách vẽ trên các mẫu mà họ đã xác định được trong kho nội dung khổng lồ do có sẵn do con người tạo ra. Công nghệ này đã được tiên phong tại các công ty công nghệ lớn như Google, dù công bố các mô hình mới hoặc cung cấp bản demo nhưng vẫn giữ bí mật toàn bộ sản phẩm. Trong khi đó, các phòng thí nghiệm nghiên cứu như OpenAI đã nhanh chóng tung ra các phiên bản mới nhất của họ. Điều này đặt ra nhiều câu hỏi về những dịch vụ như mô hình ngôn ngữ LaMDA của Google.
Những gã khổng lồ công nghệ đã trở nên thận trọng hơn kể từ lần ra mắt thất bại như Tay của Microsoft, nó đã bị gỡ xuống trong vòng chưa đầy một ngày vào năm 2016 sau khi những kẻ xấu lợi dụng bot để kêu gọi một cuộc chiến tranh chủng tộc, khi cho rằng Hitler đã đúng và tweet “Người Do Thái đã làm vụ 11/9”. Meta đã gỡ bỏ Blenderbot sau khi nó đưa ra những bình luận phân biệt chủng tộc vào tháng 8, nhưng đã gỡ bỏ một công cụ AI khác, có tên là Galactica, vào tháng 11 chỉ sau ba ngày bị chỉ trích về những bản tóm tắt nghiên cứu khoa học không chính xác và đôi khi thiên vị của nó.
“Mọi người cảm thấy OpenAI mới mẻ hơn, thú vị hơn và có ít lỗi nghiêm trọng hơn so với các công ty đương nhiệm này và họ đã có thể vượt qua giới hạn này,” một nhân viên Google làm việc trong lĩnh vực AI cho biết, cộng đồng sẵn sàng đón nhận ChatGPT với ít quyền giám sát hơn. Một số tài năng hàng đầu đã nhanh chóng nhảy sang các công ty khởi nghiệp, như OpenAI và Stable Diffusion.
Một số nhà đạo đức AI lo ngại rằng việc Big Tech tung ra thị trường có thể khiến hàng tỷ người gặp phải các mối nguy hại tiềm ẩm — chẳng hạn như chia sẻ thông tin không chính xác, tạo ảnh giả hoặc cho học sinh khả năng gian lận trong các bài kiểm tra ở trường — trước khi các chuyên gia có những nghiên cứu có thể đánh giá chính xác về độ tin cậy và an toàn của AI. rủi ro. Một số khác chia sẻ cách của OpenAI thực hiện là việc phát hành các công cụ ra công chúng với danh nghĩa thường là ở giai đoạn “beta” sau kiểm soát một số rủi ro có thể dự đoán được. Đây cũng là cách duy nhất để đánh giá các tác hại trong thế giới thực.
“Tốc độ phát triển của AI cực kỳ nhanh và chúng tôi luôn theo dõi để đảm bảo rằng chúng tôi có các quy trình đánh giá hiệu quả, nhưng ưu tiên là đưa ra quyết định đúng đắn và phát hành các mô hình và sản phẩm AI phục vụ tốt nhất cho cộng đồng của chúng tôi,” Joelle Pineau, giám đốc điều hành Nghiên cứu AI cơ bản tại Meta cho biết.
Lily Lin, người phát ngôn của Google cho biết: “Chúng tôi tin rằng AI là công nghệ nền tảng và mang tính biến đổi, cực kỳ hữu ích cho các cá nhân, doanh nghiệp và cộng đồng. Chúng ta cần xem xét những tác động xã hội rộng lớn hơn mà những đổi mới này có thể có. Chúng tôi tiếp tục thử nghiệm nội bộ công nghệ AI của mình để đảm bảo rằng nó hữu ích và an toàn.”
Giám đốc truyền thông của Microsoft, Frank Shaw, cho biết công ty của ông hợp tác với OpenAI để xây dựng các biện pháp giảm thiểu an toàn bổ sung khi sử dụng các công cụ AI như DALLE-2 trong các sản phẩm của mình. “Microsoft đã làm việc trong nhiều năm để vừa thúc đẩy lĩnh vực AI vừa hướng dẫn công khai cách những công nghệ này được tạo ra và sử dụng trên các nền tảng của chúng tôi theo những cách có trách nhiệm và đạo đức,” Shaw cho biết.
OpenAI từ chối bình luận
Mark Riedl, giáo sư điện toán tại Georgia Tech và là chuyên gia về học máy, cho biết công nghệ nền tảng của ChatGPT không nhất thiết phải là mô hình tốt hơn những gì Google và Meta đã phát triển. Nhưng việc OpenAI thực hành phát hành các mô hình ngôn ngữ của mình để sử dụng công khai đã mang lại cho nó một lợi thế thực sự.
Riedl cho biết: “Trong hai năm qua, họ đã sử dụng con người để cung cấp phản hồi cho GPT, chẳng hạn như đưa ra đánh giá “không thích” cho một câu trả lời không phù hợp hoặc không thỏa đáng, một quá trình được gọi là “học tăng cường từ phản hồi của con người”.
Việc Thung lũng Silicon bất ngờ sẵn sàng xem xét chấp nhận rủi ro về danh tiếng hơn khi cổ phiếu công nghệ đang lao dốc. Với sự kiện Google sa thải 12.000 nhân viên, CEO Sundar Pichai đã viết rằng công ty đã tiến hành đánh giá tình hình một cách nghiêm túc để tập trung cho ưu tiên hàng đầu của mình vào AI với hai lần đề cập đến các khoản đầu tư ban đầu cho nó.
Một thập kỷ trước, không thể tranh cãi khi Google là người dẫn đầu trong lĩnh vực này. Google đã mua lại phòng thí nghiệm AI tiên tiến DeepMind vào năm 2014 và mã nguồn mở phần mềm máy học TensorFlow vào năm 2015. Đến năm 2016, Pichai cam kết biến Google thành công ty “AI đầu tiên”.
Năm tiếp theo, Google đã phát hành Transformers — một phần quan trọng của kiến trúc phần mềm giúp tạo ra làn sóng AI tổng quát hiện nay.
Công ty tiếp tục tung ra công nghệ tiên tiến nhất để thúc đẩy toàn bộ lĩnh vực phát triển, triển khai một số cải tiến đột phá về trí tuệ nhân tạo trong việc hiểu ngôn ngữ để cải thiện tìm kiếm của Google. Bên trong các công ty công nghệ lớn, hệ thống kiểm tra và cân bằng giữa đạo đức của AI và quyền riêng tư hoặc bảo mật dữ liệu. Điển hình là các nhóm gồm các nhà nghiên cứu và kỹ sư AI công bố các phát hiện của họ, kết hợp công nghệ của họ vào cơ sở hạ tầng hiện có của công ty hoặc phát triển sản phẩm mới, quy trình này đôi khi có thể xung đột với các nhóm khác phụ trách kiểm duyệt AI trước áp lực đem nó đến với công chúng sớm hơn.
Google đã công bố các nguyên tắc AI của mình vào năm 2018, sau khi vấp phải sự phản đối của nhân viên đối với Dự án Maven, hợp đồng cung cấp thị giác máy tính cho máy bay không người lái của Lầu Năm Góc và phản ứng dữ dội của người tiêu dùng đối với bản demo của Duplex, một hệ thống AI có thể gọi đến các nhà hàng và đặt chỗ trước mà không tiết lộ nó là một loại bot. Vào tháng 8 năm ngoái, Google đã bắt đầu cung cấp cho người tiêu dùng quyền truy cập vào một phiên bản giới hạn của LaMDA thông qua ứng dụng AI Test Kitchen. Mặc dù Google có kế hoạch phát hành vào cuối năm 2022, công ty vẫn chưa phát hành phiên bản đầy đủ, khi cựu kỹ sư phần mềm của Google cho rằng LaMDA có tri giác.
Kỹ sư Google cho rằng AI của công ty đã đi vào cuộc sống
Những tài năng AI hàng đầu đằng sau những phát triển này đã phát triển không ngừng nghỉ. Trong khoảng một năm trở lại đây, các nhà nghiên cứu AI hàng đầu của Google đã rời đi để thành lập các công ty khởi nghiệp xung quanh các mô hình ngôn ngữ lớn, bao gồm Character.AI, Cohere, Adept, Inflection.AI và Inworld AI, bên cạnh các công ty khởi nghiệp tìm kiếm sử dụng các mô hình tương tự để phát triển giao diện trò chuyện, chẳng hạn như Neeva, do cựu giám đốc Google Sridhar Ramaswamy điều hành.
Người sáng lập Character.AI, Noam Shazeer, người đã giúp phát minh ra Transformer và kiến trúc máy học cốt lõi khác, cho biết hiệu ứng bánh đà của dữ liệu người dùng là vô giá. Lần đầu tiên anh áp dụng phản hồi của người dùng cho Character.AI, cho phép mọi người tạo chatbot dựa trên những mô tả ngắn về người thật hoặc nhân vật tưởng tượng, mức độ tương tác đã tăng hơn 30%.
Nick Frosst, người đã làm việc tại Google Brain trong ba năm trước khi đồng sáng lập Cohere, một công ty khởi nghiệp xây dựng các mô hình ngôn ngữ lớn có trụ sở tại Toronto, cho biết các công ty lớn hơn như Google và Microsoft thường tập trung vào việc sử dụng AI để cải thiện các mô hình kinh doanh khổng lồ hiện có của họ và tùy biến để giúp các doanh nghiệp hoạt động tối ưu hơn. Một trong những người đồng sáng lập của anh là Aidan Gomez cũng đã giúp xây dựng Transformer khi anh ấy làm việc tại Google.
Frosst nói: “Phạm vi phát triển chuyển rất nhanh, tôi không ngạc nhiên khi những người dẫn đầu là các công ty nhỏ hơn”. AI đã trải qua một số giai đoạn được cường điệu trong thập kỷ qua, nhưng DALL-E và ChatGPT đã đạt đến một tầm cao mới.
Ngay sau khi OpenAI phát hành ChatGPT, những người có ảnh hưởng công nghệ trên Twitter bắt đầu dự đoán rằng Generative AI sẽ đánh dấu sự sụp đổ của công cụ tìm kiếm Google. ChatGPT cung cấp các câu trả lời đơn giản theo cách dễ tiếp cận và không yêu cầu người dùng tìm kiếm thông qua các liên kết thường thấy. Bên cạnh đó, sau một phần tư thế kỷ, giao diện tìm kiếm của Google đã trở nên cồng kềnh với các quảng cáo và với việc này càng nhiều nhà tiếp thị đang cố gắng đánh lừa hệ thống.
“Nhờ vị trí độc quyền của họ, những người ở Mountain View đã trải nghiệm công nghệ tìm kiếm đáng kinh ngạc một thời của họ và biến thành một địa ngục tràn ngập thư rác, được thực hiện bởi SEO”, nhà công nghệ Can Duruk đã viết trong bản tin Margins của mình, đề cập đến công cụ của Google.
Trên ứng dụng ẩn danh Blind, các nhân viên công nghệ đã đăng hàng chục câu hỏi về việc liệu gã khổng lồ Thung lũng Silicon có thể cạnh tranh được hay không.
“Nếu Google không cùng nhau hành động và bắt đầu ra mắt công cụ tương tự, họ sẽ đi vào lịch sử với tư cách là công ty đã nuôi dưỡng và đào tạo cả một thế hệ các nhà nghiên cứu và kỹ sư máy học, những người đã tiếp tục triển khai công nghệ này ở các công ty khác,” David viết trên Twitter. Ha, một nhà khoa học nghiên cứu nổi tiếng gần đây đã rời Google Brain để đến với Stable Diffusion khởi nghiệp chuyển văn bản thành hình ảnh nguồn mở.
Các kỹ sư AI vẫn ở Google đã chia sẻ sự thất vọng của mình. Họ cho biết, trong nhiều năm, các nhân viên đã gửi các đề xuất về việc kết hợp các chức năng trò chuyện vào tìm kiếm, coi đó là một sự cải tiến cần thiết. Nhưng họ cũng hiểu rằng Google có những lý do chính đáng để không vội vàng chuyển đổi công cụ tìm kiếm của mình, ngoài thực tế là sẽ loại mất đi mảnh đất màu mỡ cho quảng cáo trực tuyến. Một chatbot tích hợp vào các câu trả lời trực tiếp từ Google có thể tăng các trách trách nhiệm pháp lý nếu phản hồi bị phát hiện là có hại hoặc đạo ý tưởng.
Trên thực tế, chatbot như OpenAI thường xuyên mắc lỗi và thường thay đổi câu trả lời tùy thuộc vào cách đặt câu hỏi. Một cựu nhà nghiên cứu AI của Google cho biết, việc chuyển từ cung cấp một loạt câu trả lời bằng các liên kết đề xuất đến nguồn tài liệu của họ sang sử dụng chatbot để đưa ra một câu trả lời duy nhất. Ông cho biết công ty không muốn đảm nhận vai trò hoặc trách nhiệm cung cấp các câu trả lời duy nhất như vậy. Các cải tiến trước đây cho tìm kiếm, chẳng hạn như thêm Câu trả lời tức thì, thường được thực hiện với sự thận trọng nhất có thể.
Tuy nhiên, tại Google, sự thất vọng với quy trình an toàn AI xuất phát từ cảm giác rằng công nghệ tiên tiến không bao giờ được phát hành dưới dạng sản phẩm vì lo ngại dư luận xấu — chẳng hạn như nếu một mô hình AI cho thấy sự thiên vị.
Theo một người tham dự các cuộc thảo luận trong nội bộ của công ty (yêu cầu giấu tên), các nhân viên của Meta cũng đã phải đối mặt với những lo ngại của công ty về PR kém. Người này cho biết trước khi tung ra sản phẩm mới hoặc công bố một nghiên cứu, nhân viên của Meta phải trả lời các câu hỏi về những rủi ro tiềm ẩn khi công bố công trình của họ, bao gồm cả việc nó có thể gây ra hiểu lầm như thế nào. Một số dự án được xem xét bởi nhân viên quan hệ công chúng, cũng như các chuyên gia giám sát nội bộ, những người đảm bảo các sản phẩm của công ty tuân thủ thỏa thuận của Ủy ban Thương mại Liên bang năm 2011 về cách công ty xử lý dữ liệu người dùng.
Đối với Timnit Gebru, giám đốc điều hành của Distributed AI Research Institute, khả năng Google loại bỏ nhóm AI chịu trách nhiệm của mình không báo hiệu sự thay đổi về quyền lực hoặc các mối quan tâm về an toàn, bởi vì những cảnh báo về tác hại tiềm tàng thường không được cấp phép ngay từ đầu. “Nếu may mắn, chúng tôi sẽ được mời tham dự một cuộc họp”, Gebru, người đã giúp lãnh đạo nhóm AI Đạo đức của Google cho đến khi cô ấy bị sa thải vì một bài báo chỉ trích các mô hình ngôn ngữ lớn.
Theo quan điểm của Gebru, Google đã chậm phát hành các công cụ AI của mình vì công ty thiếu động lực kinh doanh đủ lớn để mạo hiểm đánh đổi chính danh tiếng của mình.
Tuy nhiên, sau khi phát hành ChatGPT, có lẽ Google sẽ thấy khả năng kiếm tiền từ các mô hình này như một sản phẩm tiêu dùng thay đổi, chứ không chỉ để tăng sức mạnh tìm kiếm hoặc quảng cáo trực tuyến, Gebru nói. “Bây giờ họ có thể nghĩ rằng đó là mối đe dọa đối với hoạt động kinh doanh cốt lõi của họ, vì vậy họ sẽ phải mạo hiểm”.
Rumman Chowdhury, người lãnh đạo nhóm đạo đức học máy của Twitter cho đến khi Elon Musk giải tán nó vào tháng 11, cho biết cô hy vọng các công ty như Google sẽ ngày càng gạt bỏ các bộ phận kiểm soát nội bộ và các nhà đạo đức khi họ cố gắng bắt kịp OpenAI.
“Chúng tôi nghĩ rằng không phải là Trung Quốc vượt qua Mỹ, mà chính là các công ty khởi nghiệp”, cô nói.
(Theo Nitasha Tiku, Gerrit De Vynck)