Trong một bài bình luận được công bố gần đây, Alex de Vries đã bày tỏ lo ngại về nhu cầu năng lượng trong tương lai liên quan đến việc vận hành các công cụ AI, rằng nhu cầu này có thể vượt qua mức tiêu thụ năng lượng của một số quốc gia nhỏ. AI của Google có thể sớm tiêu thụ lượng điện tương đương với của cả Ireland.
Khi chúng ta đang lao vào việc đạt được một trong những kỳ công công nghệ đáng chú ý nhất của nhân loại, chúng ta cần phải dừng lại để suy nghĩ về hậu quả của sự tiến bộ này.
Các hệ thống AI không chỉ tiêu tốn một lượng lớn dữ liệu trong quá trình đào tạo mà còn có nhu cầu điện vô độ khi hoạt động. Một nghiên cứu gần đây đã xem xét mức tiêu thụ năng lượng và dấu chân carbon của một số mô hình ngôn ngữ lớn nổi bật.
Trong số đó, ChatGPT, hoạt động dựa trên một số lượng khổng lồ gồm 10.000 GPU NVIDIA, được phát hiện là tiêu thụ 1.287 megawatt giờ điện – tương đương với mức tiêu thụ của 121 hộ gia đình Mỹ trong một năm. Không ngoại lệ, AI của Google có thể sớm tiêu thụ lượng điện tương đương với của cả Ireland.
Khi chúng ta tăng tốc hành trình hướng tới việc thực hiện một trong những đột phá công nghệ quan trọng nhất trong lịch sử, bài bình luận của Alex de Vries, đăng tải trên tạp chí Joule, nhấn mạnh khả năng nhu cầu năng lượng của các công cụ AI có thể sớm vượt qua nhu cầu của một số nước nhỏ.
“Vào năm 2021, tổng mức tiêu thụ điện của Google là 18,3 TWh, với AI chiếm 10% -15% tổng số này. Kịch bản tồi tệ nhất cho thấy chỉ riêng AI của Google có thể tiêu thụ nhiều điện như một quốc gia như Ireland (29,3 TWh mỗi năm), đây là một sự gia tăng đáng kể so với mức tiêu thụ năng lượng liên quan đến AI trước đây của công ty,” Vries bày tỏ lo ngại.
Nhu cầu năng lượng ngày càng tăng trong lĩnh vực AI
Sự ra đời của AI Tạo sinh, đặc biệt là kể từ khi OpenAI giới thiệu ChatGPT cho thế giới vào cuối năm 2022, đã làm dấy lên nhu cầu mạnh mẽ về chip AI. NVIDIA, một nhà cung cấp chip cao cấp hàng đầu, đã báo cáo doanh thu kỷ lục 16 tỷ USD cho quý kết thúc vào tháng 7 năm 2023, cho thấy nhu cầu về chip AI đang tăng cao.
Ngoài ra, một xu hướng mới nổi cho thấy ngày càng nhiều công ty tham gia vào việc phát triển chip để đáp ứng nhu cầu khắt khe của AI. Google và Amazon đã giới thiệu chip AI độc quyền của riêng họ và có tin đồn rằng Microsoft có thể sớm ra mắt phần cứng chip của riêng mình.
Microsoft, với khoản đầu tư đáng kể vào OpenAI, dường như đang trên con đường tự sản xuất chip hoặc mua lại một công ty bán dẫn để đáp ứng nhu cầu AI của mình.
Điều này chỉ cho thấy dấu hiệu về nhu cầu năng lượng ngày càng tăng cao của ngành công nghiệp AI, như Vries giải thích, “Ví dụ, các công ty như Alphabet’s Google có thể tăng đáng kể nhu cầu năng lượng của họ nếu AI Tạo sinh được tích hợp vào mọi tìm kiếm của Google.”
Thách thức tiêu thụ năng lượng tiếp theo
Theo SemiAnalysis, một blog bán dẫn và AI hàng đầu, việc tích hợp một chatbot giống ChatGPT vào mọi tìm kiếm của Google sẽ cần 512.820 máy chủ A100 HGX của NVIDIA, tương đương với hơn 4 triệu GPU.
Với nhu cầu điện năng là 6,5 kW mỗi máy chủ, điều này tương đương với mức tiêu thụ điện năng hàng ngày là 80 GWh và mức sử dụng hàng năm là 29,2 TWh.
Vries cũng nhấn mạnh rằng các công cụ AI trải qua giai đoạn đào tạo ban đầu, theo sau là giai đoạn suy luận. Giai đoạn đào tạo, là giai đoạn tiêu tốn nhiều năng lượng nhất, đã là trọng tâm chính của nghiên cứu về tính bền vững của AI cho đến nay.
Tuy nhiên, giai đoạn suy luận, khi các công cụ này tạo ra kết quả dựa trên dữ liệu đào tạo của chúng, dường như có nhu cầu năng lượng cao hơn đáng kể.
Tiêu thụ năng lượng trong giai đoạn suy luận của AI
“OpenAI đã cần 3.617 máy chủ HGX A100 của NVIDIA, với tổng số 28.936 GPU, để hỗ trợ ChatGPT, điều này ngụ ý mức tiêu thụ năng lượng là 564 MWh mỗi ngày,” Vries nhấn mạnh.
Và đây chỉ là để khởi động chatbot trước khi bất kỳ người tiêu dùng nào bắt đầu sử dụng nó. “So với mức tiêu thụ 1.287 MWh ước tính được sử dụng trong giai đoạn đào tạo của GPT-3, mức tiêu thụ năng lượng của giai đoạn suy luận có vẻ cao hơn đáng kể,” ông nói thêm.
Cuối cùng, Vries cảnh báo rằng không nên quá lạc quan về kỳ vọng rằng những cải tiến về hiệu quả phần cứng và phần mềm sẽ hoàn toàn bù đắp cho bất kỳ thay đổi lâu dài nào trong mức tiêu thụ điện liên quan đến AI.
Tuy nhiên, những nỗ lực đang được thực hiện để giải quyết vấn đề này. Gần đây, các nhà nghiên cứu tại MIT đã gây chú ý bằng cách giảm mức tiêu thụ năng lượng của một mô hình AI xuống 12-15% bằng cách giới hạn mức năng lượng tiêu thụ của các GPU điều khiển nó.
Vries cũng gợi ý rằng các GPU cũ hơn và không còn sử dụng được trong việc đào tiền điện tử Ethereum có thể tìm thấy mục đích mới như một phần của giải pháp.
AI của Google có thể sớm tiêu thụ lượng điện tương đương của cả Ireland cộng lại
Xem ngay 📹: 👉 Chi tiết: https://4techviews.net/ai-cua-google-co-the-som-tieu-thu-luong-dien-tuong-duong-cua-ca-ireland/