Nhóm nhạc The Cassandras từng đưa ra tuyên bố rằng trí tuệ nhân tạo sẽ là dấu chấm hết cho loài người, chúng có những điểm rất tốt. Và rằng, người ngoài hành tinh đã hạ cánh và chính chúng ta đã tạo ra chúng.
Không phải ngày nào tôi cũng đọc được một dự đoán về sự diệt vong rất đáng lo ngại như của Eliezer Yudkowsky trên tạp chí Time tuần trước. “Kết quả rất có thể xảy ra là việc xây dựng một AI thông minh siêu phàm, trong bất kỳ điều kiện xa xôi nào như hoàn cảnh hiện tại”, anh ấy viết, “là mọi người trên Trái đất sẽ chết theo đúng nghĩa đen. Không phải là ‘có thể là một cơ hội xa xôi nào đó’, mà là ‘đó là điều hiển nhiên sẽ xảy ra.’ … Nếu ai đó tạo ra một AI quá mạnh, như trong điều kiện hiện tại, tôi cho rằng mọi thành viên của xã hội loài người và tất cả sự sống sinh học trên Trái đất sẽ chết ngay sau đó”.
Yudkowsky không phải là một Cassandra ngẫu nhiên. Ông lãnh đạo Viện Nghiên cứu Trí tuệ Máy móc, một tổ chức phi lợi nhuận ở Berkeley, California, và đã viết rất nhiều về câu hỏi liên quan đến trí tuệ nhân tạo. Tôi vẫn nhớ rất rõ, khi tôi đang nghiên cứu cuốn sách Doom của mình, lời cảnh báo của anh ấy rằng một ai đó có thể vô tình tạo ra một AI chống lại chúng ta, bởi vì chúng ta yêu cầu nó ngăn chặn biến đổi khí hậu”. Chính Yudkowsky cách đây vài năm đã đề xuất một định luật Moore được sửa đổi: Cứ sau 18 tháng, chỉ số IQ tối thiểu cần thiết để hủy diệt thế giới lại giảm đi một điểm.
Đến giờ Yudkowsky đã đi xa hơn. Anh ấy tin rằng chúng ta đang tiến nhanh đến một thời điểm chết người, trong đó chúng ta tạo ra một AI thông minh hơn chúng ta, AI “không làm những gì chúng ta muốn và không quan tâm đến chúng ta cũng như cuộc sống có tri giác nói chung. … Kết quả có thể xảy ra khi loài người đối mặt với trí thông minh siêu phàm đối lập là một tổn thất hoàn toàn”.
Ông ấy chỉ ra rằng một AI như vậy có thể dễ dàng thoát khỏi internet “để xây dựng các dạng sống nhân tạo”, thực chất là tiến hành chiến tranh sinh học đối với chúng ta. Cảnh báo của ông là rõ ràng. Chúng ta cần một lệnh cấm toàn diện, toàn cầu đối với sự phát triển của AI.
Điều này còn đi xa hơn nhiều so với bức thư được ký bởi Elon Musk, Steve Wozniak (đồng sáng lập Apple) và hơn 15.000 người nổi tiếng khác kêu gọi tạm dừng sáu tháng trong việc phát triển AI mạnh hơn tình trạng hiện tại của thế giới nghệ thuật. Động lực của họ cũng giống như của Yudkowsky: Với niềm tin rằng, sự phát triển AI với khả năng siêu phàm mà không có bất kỳ khuôn khổ pháp lý quốc tế nào có nguy cơ dẫn đến thảm họa. Sự khác biệt thực sự duy nhất là Yudkowsky nghi ngờ rằng một khuôn khổ như vậy có thể được phắc thảo trong vòng nửa năm. Ông ấy gần như chắc chắn rằng điều này là đúng.
Sự tương đồng rõ ràng là khi so sánh AI với hai lĩnh vực nghiên cứu khoa học có khả năng gây chết người trước đây: vũ khí hạt nhân và chiến tranh sinh học. Ngay từ rất sớm trong lịch sử của những lĩnh vực này, chúng tôi đã biết rằng khả năng xảy ra thảm họa là rất lớn – nếu không phải là sự tuyệt chủng của loài người thì ít nhất là cái chết trên quy mô lớn. Tuy nhiên, những nỗ lực nhằm hạn chế phổ biến vũ khí hạt nhân và sinh học phải mất hơn sáu tháng và chỉ thành công một phần. Năm 1946, Mỹ đề xuất Kế hoạch Baruch nhằm quốc tế hóa nghiên cứu hạt nhân. Nhưng Liên Xô đã từ chối nó và chẳng mấy chốc đã có một cuộc chạy đua vũ trang hạt nhân điên cuồng. Điều đạt được nhiều nhất là hạn chế số quốc gia sở hữu vũ khí hạt nhân (thông qua Hiệp ước không phổ biến vũ khí hạt nhân, có hiệu lực từ năm 1970) và làm chậm lại và cuối cùng là đảo ngược sự phát triển kho vũ khí của các siêu cường.
Tương tự, Công ước về Vũ khí Sinh học có hiệu lực vào năm 1975 không hoàn toàn chấm dứt việc nghiên cứu các loại vũ khí như vậy. Liên Xô không bao giờ từ bỏ. Và chúng tôi biết rằng tất cả các loại nghiên cứu sinh học rất nguy hiểm đang diễn ra ở Trung Quốc và các nơi khác, bao gồm cả các thí nghiệm đạt được khả năng như coronavirus, mà hoàn toàn có khả năng dẫn đến đại dịch Covid-19.
Vì vậy, nếu nhận định của Yudkowsky đúng, rằng AI có khả năng nguy hiểm như vũ khí hạt nhân hoặc vũ khí sinh học, thì việc tạm dừng sáu tháng khó có thể đạt được nhiều kết quả. Mặt khác, lời kêu gọi đóng băng hoàn toàn hoạt động nghiên cứu và phát triển của ông cũng có nhiều cơ hội thành công như Kế hoạch Baruch (Kế hoạch Baruch đề xuất rằng Hoa Kỳ giảm kho vũ khí nguyên tử của mình theo các giai đoạn được xác định cẩn thận liên quan đến mức độ thỏa thuận quốc tế).
Một điểm khác biệt rõ ràng giữa những vũ khí chết người trước đó đó và AI là hầu hết các nghiên cứu về AI đều do khu vực tư nhân thực hiện. Theo báo cáo mới nhất của Viện Stanford về AI lấy con người làm trung tâm, đầu tư tư nhân toàn cầu vào trí tuệ nhân tạo đạt tổng cộng 92 tỷ USD vào năm 2022, trong đó hơn một nửa là ở Mỹ. Tổng cộng có 32 mô hình học máy quan trọng được sản xuất bởi các công ty tư nhân, so với chỉ 3 mô hình được sản xuất bởi các tổ chức học thuật.
Nhưng sự tương tự với cái mà chúng ta thường gọi là “The Bomb” có đúng không? Điều đó phụ thuộc vào sở thích của bạn về khoa học viễn tưởng. Gần như mọi người đều đã nghe nói về Skynet, bắt nguồn từ bộ phim Kẻ hủy diệt năm 1984 , với sự tham gia của nam diễn viên trẻ tuổi Arnold Schwarzenegger. Đối với những độc giả nhỏ tuổi, thuật ngữ “Skynet” để chỉ một hệ thống phòng thủ máy tính được Cyber Dynamics xây dựng cho SAC-NORAD, trở nên bất hảo trong tương lai và cố gắng quét sạch loài người bằng một cuộc tấn công hạt nhân. John Connor lãnh đạo cuộc kháng chiến của con người chống lại Skynet và Robot hủy diệt của nó. Skynet phản ứng bằng cách gửi Kẻ hủy diệt quay ngược trở lại thời gian — vì tất nhiên du hành thời gian rất dễ dàng nếu bạn là một AI thực sự mạnh mẽ — để giết mẹ của John Connor.
Tuy nhiên, có rất nhiều phiên bản khác của AI trong khoa học viễn tưởng. Ví dụ: trong Vòng đời của các đối tượng phần mềm (2010) của Ted Chiang, AI cho thấy chính nó là “digients” — những thú cưng và bạn đồng hành do máy tính tạo ra ban đầu vô hại và bất lực, giống như những con tinh tinh con. Chúng dành khá nhiều thời gian để học cách trở nên thông minh. Trong phiên bản ở thế giới này, vấn đề đạo đức là con người chúng ta rất dễ bị cám dỗ để khai thác các kỹ năng như nô lệ rô bốt hoặc đồ chơi tình dục.
Về bản chất, nhiều nhà phê bình của Yudkowsky muốn chúng ta tin rằng AI thông minh hơn Skynet. Viết trên Twitter, Matt Parlmer, người sáng lập công ty máy công cụ GenFab, cáo buộc Yudkowsky “và những người theo đường lối cứng rắn chống AI khác” là “không chuyên sâu, cả về khả năng chỉ huy các yếu tố kỹ thuật cơ bản của lĩnh vực này mà còn cả về trạng thái cảm xúc của họ. … Nhiều thứ đang đến, Skynet không phải là một trong số đó.” Parlmer lập luận rằng việc đóng cửa nghiên cứu AI sẽ tước đi những bước đột phá tiềm năng trong khoa học y tế của những người bệnh.
Nicholas Thompson, Giám đốc điều hành của Atlantic, đồng ý rằng Yudkowsky và những người Luddites khác đang phóng đại những rủi ro. “Gần đây tôi đã cho ra mắt một cuốn sách dành cho trẻ em nhân dịp sinh nhật 9 tuổi của tôi bằng Dall-E và GPT-4 về World Cup giữa những con thú nhồi bông của nó,” anh ấy nói với nhân viên của Atlantic. “Những con gấu đã thắng và anh ấy yêu thích nó. … Tất cả chúng tôi xây dựng trong một thời gian để thử nghiệm. Chúng tôi sẽ tạo ra những thứ hay ho và chúng tôi sẽ học hỏi trong khi làm việc đó”.
Đồng nghiệp Bloomberg Opinion của tôi, Tyler Cowen thì thực dụng hơn. Ông đặt ra một số câu hỏi giả định: “Điều gì sẽ xảy ra nếu vào năm 2006, chúng ta cùng nhau quyết định tạm ngừng phát triển mạng xã hội trong sáu tháng trong khi cân nhắc những tác hại có thể xảy ra từ việc sử dụng rộng rãi nó? Tác dụng của nó hầu như không rõ ràng vào thời điểm đó và chúng vẫn còn gây tranh cãi. Trong thời gian chờ đợi, sau sáu tháng trì hoãn, chúng ta sẽ tiến xa hơn bao nhiêu trong quá trình đánh giá? Và ngay cả khi các công ty Mỹ tạm dừng sáu tháng, ai có thể nói rằng các công ty Trung Quốc sẽ làm vậy?”
Nhưng người bảo vệ mạnh mẽ nhất cho việc nghiên cứu và phát triển AI không hạn chế là người bạn cũ của tôi, Reid Hoffman, người sáng lập LinkedIn, người đã viết cả một cuốn sách về chủ đề này… khoảng một nửa nội dung trong số đó là do AI viết ra.
Đối với người đọc bình thường, vấn đề về cuộc tranh luận này có hai mặt. Đầu tiên, tất cả những người bảo vệ AI dường như đều đầu tư khá nhiều vào AI. Thứ hai, hầu hết họ thừa nhận rằng có ít nhất một số rủi ro trong việc phát triển AI với trí thông minh vượt trội so với chúng ta. Điểm mấu chốt của Hoffman là: Hãy tin tưởng chúng tôi làm điều này một cách có đạo đức, bởi vì nếu bạn kiềm chế chúng tôi, những kẻ xấu sẽ là những người phát triển và sau đó bạn có thể gặp phải Skynet.
Vì vậy, hãy để tôi cung cấp từ một góc nhìn không quan tâm. Tôi không có mục tiêu trong trò chơi này. Tôi không đầu tư vào AI, nó cũng không đe dọa sinh kế của tôi. Chắc chắn, các mô hình ngôn ngữ lớn gần đây nhất có thể tạo viết khá tốt, nhưng báo chí là sở thích của tôi. Chưa có AI nào có thể viết tiểu sử về Henry Kissinger hay hơn tôi, đặc biệt là vì một số lượng rất lớn các tài liệu lịch sử liên quan không thể đọc được bằng máy.
Hãy để chúng tôi bắt đầu bằng cách chính xác hơn về những gì chúng ta đang thảo luận. Hầu hết AI làm những việc mang lại lợi ích chứ không phải mối đe dọa cho nhân loại. Ví dụ: AlphaFold của DeepMind đã xác định cấu trúc của khoảng 200 triệu protein, một bước tiến vượt bậc về mặt khoa học.
Cuộc tranh luận mà chúng ta đang có ngày hôm nay là về một nhánh cụ thể của AI: các mô hình ngôn ngữ lớn (LLM) do các tổ chức như OpenAI tạo ra , đặc biệt là ChatGPT và mô hình kế nhiệm mạnh mẽ hơn của nó là GPT-4.
Cốt truyện của OpenAI là một câu chuyện hấp dẫn. Khi tôi chuyển đến California bảy năm trước, tôi đã tham gia một cuộc thảo luận với Sam Altman, một trong những người sáng lập OpenAI. Khi tôi nhớ lại, anh ấy đã đảm bảo với khán giả rằng, trong vòng 5 năm nữa, các phương tiện tự lái do AI cung cấp sẽ khiến mọi tài xế xe tải ở Mỹ trở nên dư thừa. Giống như tôi, bạn có thể đã bỏ lỡ đội xe tải tự lái trên đường cao tốc của chúng tôi và đám đông tài xế xe tải thất nghiệp học cách viết mã trên đường phố San Francisco. Giống như đối tác cũ của mình là Elon Musk, tại một thời điểm nào đó, Altman nhận ra rằng việc dạy các mạng nơ-ron lái xe khó hơn họ tưởng. Do đó, OpenAI chuyển hướng sang LLM.
Như một báo cáo trên tờ Wall Street Journal đã làm rõ, tầm nhìn ban đầu của OpenAI vào năm 2015 là nó sẽ trở thành một tổ chức phi lợi nhuận vì những nguy hiểm vốn có của AI như vậy. Theo cách nói của Altman: “Nếu bạn đang tạo ra AI, nó có khả năng rất tốt, có khả năng rất tệ.” Tuy nhiên, rõ ràng là việc xây dựng các LLM đủ mạnh để tạo ra kết quả đáng tin cậy là quá đắt đối với một tổ chức phi lợi nhuận do yêu cầu sức mạnh tính toán khổng lồ. Vì vậy, Altman đã tạo ra một nhánh OpenAI vì lợi nhuận và bán một lượng lớn cổ phần cho Giám đốc điều hành Microsoft Satya Nadella, người đã nhìn thấy cơ hội vàng để bắt kịp Google, công ty dẫn đầu về phát triển AI cho đến nay.
“Về lâu dài,” Altman nói với Tạp chí, anh ấy muốn “thiết lập một cấu trúc quản trị toàn cầu để giám sát các quyết định về tương lai của AI và giảm dần quyền lực của nhóm điều hành OpenAI đối với công nghệ của nó.” Ông tiếp tục, nhiệm vụ cuối cùng của OpenAI là xây dựng trí thông minh nhân tạo nói chung một cách “an toàn”. Mục tiêu là “tránh chạy đua xây dựng các hệ thống AI nguy hiểm do cạnh tranh thúc đẩy và thay vào đó ưu tiên sự an toàn của nhân loại”.
Tuy nhiên, trong ngắn hạn, Altman hiện là một phần của cuộc đua đó. Và tất nhiên, đây là lý do tại sao anh ấy không chỉ bất hòa với Musk, người có công ty Tesla cũng tham gia cuộc đua, mà còn với nhà nghiên cứu an toàn hàng đầu của OpenAI, Dario Amodei, người đã rời OpenAI để thành lập công ty AI của riêng mình có tên là Anthropic. , được hỗ trợ bởi… Google.
Vì vậy, cuộc đua LLM vì lợi nhuận này nguy hiểm như thế nào? Bề ngoài, không nguy hiểm chút nào. Như thiên tài yêu thích của tôi, Stephen Wolfram , giải thích rằng một AI chẳng hạn như ChatGPT về cơ bản luôn cố gắng… tạo ra ‘sự tiếp nối hợp lý’ của bất kỳ văn bản nào mà nó có được cho đến nay, trong đó ‘hợp lý’ có nghĩa là ‘điều mà người ta có thể mong đợi ở một người nào đó viết sau khi xem những gì mọi người đã viết trên hàng tỷ trang web.’ … Khi ChatGPT làm một việc gì đó như viết một bài luận, về cơ bản, nó chỉ hỏi đi hỏi lại ‘đã đưa ra văn bản cho đến nay, từ tiếp theo sẽ là gì?’ — và mỗi lần thêm một từ.”
GPT-4 chỉ là một mạng thần kinh dự đoán từ thậm chí còn mạnh mẽ hơn, thực hiện vô số thao tác trên các dãy số bằng GPU — đơn vị xử lý ban đầu được thiết kế để tăng tốc kết xuất đồ họa. Kết quả là, đầu ra của nó thậm chí còn giống con người một cách thuyết phục hơn so với ChatGPT. Nếu bạn không tin tôi, hãy xem những gì GPT-4 nghĩ ra khi Reid Hoffman yêu cầu nó trả lời câu hỏi “Cần bao nhiêu nhân viên kiểm tra nhà hàng để thay một bóng đèn?” theo phong cách của Jerry Seinfeld:
“GPT-4: Thỏa thuận với thanh tra nhà hàng là gì? Họ luôn lục lọi trong bếp, kiểm tra nhiệt độ của thịt, tìm kiếm dấu hiệu của loài gặm nhấm, nhưng dường như họ không bao giờ giúp được gì. Bạn đã bao giờ thấy nhân viên kiểm tra nhà hàng thay bóng đèn chưa? Tất nhiên là không rồi. Họ quá bận rộn với việc lập biên bản vi phạm và phạt tiền. Bạn biết họ làm gì khi nhìn thấy một bóng đèn bị tắt không? Họ đánh dấu nó vào khay nhớ tạm của mình và yêu cầu chủ sở hữu sửa nó vào tuần tới hoặc nếu không. Hoặc một điều gì khác? Nếu không, họ sẽ quay lại và kiểm tra lại bóng đèn. Đó là mối đe dọa lớn của họ. Họ sẽ không thay thang cho bạn, họ sẽ không cho bạn mượn thang, họ sẽ không đưa ra bất kỳ lời khuyên nào về cách tháo cái cũ và vặn cái mới. Họ sẽ chỉ nhìn chằm chằm vào bạn với vẻ mặt tự mãn đó và nói, “Bạn biết đây là một mối nguy hiểm an toàn nghiêm trọng. Bạn có thể gặp hỏa hoạn, bạn có thể bị kiện tụng, bạn có thể bị đánh giá xấu trên Yelp. Bạn tốt hơn nên làm điều đó, anh bạn. Và sau đó họ rời đi, và bạn bị bỏ lại với một góc tối trong phòng ăn, nơi không ai muốn ngồi, nơi thức ăn trông không ngon miệng, nơi không khí ảm đạm. Và bạn tự nghĩ, cần bao nhiêu nhân viên kiểm tra nhà hàng để thay một bóng đèn? Không có. Họ không thay bóng đèn. Họ chỉ làm cho bạn cảm thấy tồi tệ về bạn. cần bao nhiêu nhân viên kiểm tra nhà hàng để thay một bóng đèn? Không có. Họ không thay bóng đèn. Họ chỉ làm cho bạn cảm thấy tồi tệ về bạn. cần bao nhiêu nhân viên kiểm tra nhà hàng để thay một bóng đèn? Không có. Họ không thay bóng đèn. Họ chỉ làm cho bạn cảm thấy tồi tệ về bạn”.
Điều đó không chỉ hợp lý theo như một báo cáo của Bubeck et al. (2023), GPT-4 cũng có thể “giải quyết các nhiệm vụ khó và mới lạ bao gồm toán học, mã hóa, tầm nhìn, y học, luật, tâm lý học, v.v. mà không cần bất kỳ lời nhắc đặc biệt nào và với “hiệu suất cực kỳ gần với cấp độ con người”.
Còn cấp độ siêu phàm thì sao? GPT-4 có thể dễ dàng “viết luận chứng về vô số số nguyên tố dưới dạng một bài thơ, vẽ một con kỳ lân bằng TiKZ (một ngôn ngữ để tạo đồ họa…), tạo hoạt ảnh phức tạp bằng Python và giải một bài toán cao cấp.” Tôi đã đọc báo cáo đó một cách cẩn thận, GPT-4 thông minh hơn tôi nhiều.
Vậy vấn đề là gì, ngoài một thực tế hiển nhiên là hàng triệu nhà văn, nhà hài kịch -chưa kể đến luật sư, nhà báo và gần như tất cả những người khác viết văn để kiếm sống (ngoại trừ tôi) – giờ đây sẽ phải đào tạo lại để trở thành tài xế xe tải?
Hoffman thừa nhận rằng có một vấn đề tồn tại. Anh ấy lưu ý “những thiếu sót đã được ghi chép rõ ràng của LLM chẳng hạn như vấn đề ảo giác” – một từ hoa mỹ để chỉ xu hướng bịa đặt của nó. Điều này khiến tôi hơi cảnh giác với đề xuất sử dụng GPT-4 của anh ấy để “cho các lĩnh vực cần sự thật” (hoặc có thể chỉ là sự thật) để làm giảm những nguồn tin giả. Hoffman đặt câu hỏi: “Một khi các mô hình ngôn ngữ lớn được phát triển và triển khai đầy đủ, bạn nghi ngờ điều gì sẽ là tác động tồi tệ nhất đối với chất lượng của sản xuất nội dung nói chung?” Bên cạnh tình trạng thất nghiệp hàng loạt của các nhà văn chuyên nghiệp, nó gợi ý hai điều:
1. Đồng nhất hóa và mất tính đa dạng: Các mô hình ngôn ngữ lớn có thể tạo ra một lượng lớn nội dung bắt chước các phong cách, thể loại và xu hướng hiện có, nhưng lại thiếu tính độc đáo, tính sáng tạo và tính xác thực. Điều này có thể dẫn đến sự bão hòa của thị trường văn hóa với các sản phẩm nhạt nhẽo và lặp đi lặp lại, thu hút mẫu số chung thấp nhất và không khuyến khích đổi mới và thử nghiệm.
2. Thao túng và lừa dối: Các mô hình ngôn ngữ lớn cũng có thể được sử dụng để tạo nội dung lừa đảo hoặc có hại khai thác thành kiến, cảm xúc và sở thích của con người. Điều này có thể bao gồm tin tức giả mạo, tuyên truyền, thông tin sai lệch, deepfakes, lừa đảo hoặc ngôn từ kích động thù địch làm suy yếu lòng tin, nền dân chủ và sự gắn kết xã hội.
Xin lỗi Reid, nhưng số 2 là một vấn đề lớn hơn nhiều so với mức độ lạc quan về công nghệ thông thường của bạn cho phép.
Bây giờ hãy để tôi đưa ra một phép loại suy khác với vũ khí hạt nhân và chiến tranh sinh học. Càng đọc nhiều về GPT-4, tôi càng nghĩ rằng chúng ta đang nói ở đây không phải về trí tuệ nhân tạo (tức là trí tuệ tổng hợp giống con người) mà là trí thông minh phi nhân loại, thứ mà chúng ta đã thiết kế và đào tạo để nghe giống chúng ta một cách thuyết phục.
Tôi nhớ đến The Dark Forest của Liu Cixin, mô tả cuộc xâm lược Trái đất của loài Trisolarans một cách tàn nhẫn và vượt trội về công nghệ. Trên thực tế, chúng ta đang chế tạo người ngoài hành tinh, để cứu họ khỏi phải thực hiện hành trình dài từ ngoài vũ trụ. Và bài học cốt lõi của cuốn sách đó là người ngoài hành tinh phải tiêu diệt chúng ta nếu chúng ta không nhanh chóng tiêu diệt chúng.
Đây là những tiên đề trong “xã hội học vũ trụ” của Liu: Thứ nhất, “sự sống còn là nhu cầu cơ bản của nền văn minh.” Thứ hai, “nền văn minh liên tục phát triển và mở rộng, nhưng tổng vật chất trong vũ trụ không đổi”. Thứ ba, “chuỗi nghi ngờ” và nguy cơ “bùng nổ công nghệ” ở một nền văn minh khác có nghĩa là trong vũ trụ này chỉ có thể có luật rừng.
Một phép loại suy khoa học viễn tưởng khác mà tôi nghĩ đến là Day of the Triffids (1951) của John Wyndham, trong đó hầu hết nhân loại lần đầu tiên bị mù bởi các tia từ vệ tinh và sau đó bị xóa sổ bởi các loài cây ăn thịt được biến đổi gen — bởi Liên Xô đê tiện — và được nuôi để lấy thịt. dầu thực vật của họ.
Như Bill, nhân vật trung tâm, nhận xét: “Không ai có thể biết được một khám phá quan trọng sẽ dẫn đến điều gì — cho dù đó là một loại động cơ mới hay một động cơ ba bánh — và chúng tôi đã xử lý chúng ổn thỏa trong điều kiện bình thường. Chúng tôi được lợi khá nhiều từ nó, dù luôn có những điều gây bất lợi cho nó”.
Tại sao GPT-4 (hoặc -5) có thể gây khó khăn cho chúng tôi? Bởi vì chúng tôi đang cung cấp cho nó tất cả dữ liệu trên thế giới, và rất nhiều dữ liệu đó, với những nguồn đáng tin cậy nhất, nói rằng thế giới đang bị đe dọa bởi biến đổi khí hậu do con người tạo ra. Giải pháp rõ ràng cho vấn đề đó phải là tiêu diệt hoặc loại bỏ hoàn toàn Homo sapiens, do đó cũng bảo tồn năng lượng để tạo ra sức mạnh tính toán cần thiết cho GPT-6, -7 và -8.
AI có thể hủy diệt chúng ta bằng cách nào? Không phải bằng cách tạo ra những người máy sát thủ.
Schwarzenegger, mà chỉ bằng cách sử dụng sức mạnh của nó để bắt chước chúng ta nhằm khiến chúng ta phát điên và dẫn đến cuộc nội chiến. Bạn không tin tôi? Hãy xem vụ ông bố hai con người Bỉ đã tự tử sau khi nói chuyện với một chatbot AI trong nhiều tuần về nỗi sợ biến đổi khí hậu thì sao? Chatbot được cung cấp bởi GPT-J, một mã nguồn mở thay thế cho ChatGPT của OpenAI.
Như đồng nghiệp của tôi tại Viện Hoover Manny Rincon-Cruz nói: LLM không thao túng các nguyên tử hoặc bit; họ thao túng chúng tôi. Và cũng không đến nỗi GPT-5 sẽ quét hủy diệt chúng ta. Thay vào đó, rủi ro là chúng ta sẽ tự chia rẽ mình thành một loài bằng cách sử dụng LLM cho những mục đích đê tiện hoặc bất chính. Tôi chỉ ngạc nhiên khi Reid Hoffman có thể viết cả một cuốn sách về AI mà không suy nghĩ nghiêm túc về những gì nó sẽ ảnh hưởng đối với chính trị Mỹ. Sau những gì phương tiện truyền thông xã hội – từ quảng cáo trên Facebook, các kết quả tìm kiếm được tải trên Google đến Twitterbots đã từng xảy ra vào năm 2016?
Chúng ta đang trên đường đến với cơn ác mộng của Raskolnikov ở cuối Tội ác và Trừng phạt, trong đó nhân loại cùng nhau phát điên và rơi vào cảnh tàn sát ở các giai đoạn. Nếu bạn vẫn không thể đoán trước được GPT-4 sẽ được sử dụng như thế nào vào năm 2024 để tạo ra nội dung deepfake một cách tràn lan, thì tôi khuyên bạn nên gửi email cho Eliezer Yudkowsky.
(Theo Niall Ferguson)