Các mô hình được hỗ trợ bởi AI có khả năng theo dõi khí nhà kính và dự báo các hiện tượng thời tiết cực đoan, như đã được chứng minh bởi nỗ lực chung của IBM và NASA. Tuy nhiên, vẫn có một mối lo ngại: Tác động môi trường của việc duy trì các mô hình tốn nhiều năng lượng này là gì?
Tác động môi trường của các trung tâm dữ liệu phụ thuộc vào các yếu tố như tiêu thụ điện năng và nước, cũng như tuổi thọ của thiết bị. Mới đây, một công cụ mới do các sinh viên MIT giúp giảm 80% năng lượng tiêu thụ để huấn luyện các mô hình AI.
Trong một báo cáo của Climatiq, đã tiết lộ rằng điện toán đám mây chiếm từ 2,5% đến 3,7% lượng khí nhà kính toàn cầu, vượt qua lượng khí thải của các chuyến bay thương mại ở mức 2,4%. Những con số cũ này, mặc dù chưa được cập nhật đến vài năm, có khả năng sẽ tăng lên theo sự phát triển liên tục của trí tuệ nhân tạo.
Các mô hình AI là những kẻ ngốn nguồn năng lượng khổng lồ, và Trung tâm Siêu máy tính Lincoln Laboratory (LLSC) tại Viện Công nghệ Massachusetts đã chứng kiến sự gia tăng số lượng chương trình AI chạy trong các trung tâm dữ liệu của họ.
Khi mức tiêu thụ năng lượng tăng cao, các sinh viên – nhà khoa học máy tính tại MIT đã bắt đầu tìm kiếm những cách hiệu quả hơn để chạy các khối lượng công việc AI này.
Vijay Gadepally, một thành viên cấp cao tại LLSC dẫn đầu các nỗ lực nghiên cứu tiết kiệm năng lượng, giải thích: “Tính toán tiết kiệm năng lượng không phải là một lĩnh vực nghiên cứu được khám phá rộng rãi, vì nhiều người vẫn giữ dữ liệu của họ. Ai đó phải khởi xướng nỗ lực này và chúng tôi hy vọng rằng những người khác sẽ noi theo.”
Nhóm đã triển khai giới hạn năng lượng trên các đơn vị xử lý đồ họa (GPU), là những chip chịu trách nhiệm cung cấp năng lượng cho các mô hình AI vốn tiêu tốn nhiều năng lượng.
Ví dụ, NVIDIA GPU được sử dụng để huấn luyện mô hình ngôn ngữ lớn GPT-3 của OpenAI đã tiêu thụ một lượng điện năng khổng lồ 1.300 megawatt-giờ, tương đương với mức tiêu thụ trong một tháng của một hộ gia đình điển hình ở Hoa Kỳ. Người ta ước tính rằng OpenAI đã sử dụng khoảng 10.000 GPU để huấn luyện GPT-3.
Bằng cách áp đặt những giới hạn năng lượng này, các nhà nghiên cứu đã nỗ lực giảm mức tiêu thụ năng lượng của các mô hình AI này xuống 12-15%. Tuy nhiên, sự đánh đổi chính là thời gian đào tạo lâu hơn.
Bằng chứng, trong một thử nghiệm, họ đã huấn luyện mô hình ngôn ngữ BERT của Google, giới hạn năng lượng GPU của nó ở 150 watt, điều này đã kéo dài thời gian huấn luyện từ 80 lên 82 giờ.
Những nỗ lực làm mát các hệ thống AI ngốn năng lượng cũng đã được thực hiện. Nhóm đã phát triển phần mềm cho phép các nhà vận hành trung tâm dữ liệu đặt giới hạn trên toàn bộ hệ thống của họ hoặc trên cơ sở công việc cụ thể.
Kết quả của sự đổi mới này đã được chứng minh tại LLSC, nơi các GPU trong siêu máy tính của họ hiện chạy mát hơn 30 độ Fahrenheit. Điều này không chỉ giảm bớt căng thẳng cho hệ thống làm mát mà còn nâng cao độ tin cậy và tuổi thọ của phần cứng.
Một báo cáo của Cơ quan Năng lượng Quốc tế (IEA) nhấn mạnh rằng thập kỷ tới sẽ chứng kiến sự gia tăng nhanh chóng nhu cầu về các công nghệ và dịch vụ kỹ thuật số.
Để giảm thiểu mức tăng trưởng phát thải, việc đạt được tiến bộ trong hiệu quả năng lượng, đầu tư vào điện không carbon và giảm thiểu carbon trong chuỗi cung ứng là điều bắt buộc. Báo cáo cũng nhấn mạnh sự cần thiết của các chính sách khí hậu mạnh mẽ để đảm bảo rằng các công nghệ kỹ thuật số được áp dụng để giảm phát thải, thay vì làm trầm trọng thêm chúng.
Ngoài ra, nhóm MIT đã phát hiện ra một phương pháp khác để hạn chế tiêu thụ năng lượng. Quá trình huấn luyện một mô hình AI cần một lượng dữ liệu đáng kể và thường bao gồm việc thử nghiệm hàng nghìn cấu hình để xác định tham số phù hợp nhất.
Quá trình thử nghiệm và sai sót tốn nhiều năng lượng này đã được giảm thiểu bằng cách phát triển một mô hình dự đoán hiệu suất có thể xảy ra của các cấu hình khác nhau. Các mô hình cho thấy hiệu suất kém đã được xác định sớm và ngừng hoạt động, kết quả giảm mức tiêu thụ năng lượng ở mức đáng kinh ngạc 80% trong quá trình huấn luyện mô hình.
(Theo Emily Turner)
Xem thêm bài viết:
Top 10 lợi ích của kiến trúc microservice đối với doanh nghiệp
Siêu máy tính Aurora sẽ cách mạng hóa việc mô phỏng lò phản ứng hạt nhân
Đăng ký tìm hiểu dịch vụ (VM – Cloud Server, Database, Storage, Container, CDN)