Những thay đổi thiết thực có thể giảm tới 90% nhu cầu năng lượng của AI
Giảm số chữ số thập phân trong các mô hình tính toán, rút ngắn câu trả lời và sử dụng các mô hình AI nhỏ hơn có thể giúp công nghệ này trở nên bền vững hơn, theo nghiên cứu của Đại học Đại học College London (Anh).

Báo cáo được trình bài tại hội nghị thượng đỉnh toàn cầu “AI for Good” ở Geneva vào giữa tháng 7/2025. Các nhà nghiên cứu đã thử nghiệm trên mô hình LLaMA 3.1 8B của Meta để xem việc thay đổi cách thiết lập và sử dụng mô hình AI sẽ ảnh hưởng thế nào đến mức tiêu thụ năng lượng và hiệu suất hoạt động. Mô hình này được lựa chọn vì nó là mã nguồn mở, dễ chỉnh sửa, cho phép so sánh giữa phiên bản gốc và các phiên bản được tối ưu bằng các kỹ thuật khác nhau (điều không thể thực hiện được với các mô hình đóng như GPT-4 của OpenAI).
Họ phát hiện, bằng cách làm tròn bớt các con số trong phép tính nội bộ của mô hình, rút ngắn câu lệnh của người dùng và câu trả lời của AI, đồng thời sử dụng các mô hình AI nhỏ hơn, chuyên biệt cho từng nhiệm vụ cụ thể, có thể giảm mức tiêu thụ năng lượng tổng cộng tới 90% so với việc sử dụng một mô hình AI lớn, đa năng.
Chẳng hạn, sử dụng ít chữ số thập phân hơn để làm tròn số khi tính toán, sẽ làm giảm 44% mức sử dụng năng lượng của mô hình, trong khi vẫn duy trì độ chính xác ít nhất 97% so với đường cơ sở. Điều này xảy ra vì việc tính toán trở nên đơn giản hơn — tương tự như hầu hết mọi người đều có thể tính 2 cộng 2 nhanh hơn nhiều so với tính 2,34 cộng 2,17.
Khi thử nghiệm các tác vụ như dịch thuật, tóm tắt văn bản và trả lời câu hỏi trên mô hình lớn LLaMA 3.1 8B và các mô hình AI nhỏ, chuyên biệt cho từng nhiệm vụ, các nhà nghiên cứu phát hiện ra mô hình nhỏ tiêu tốn ít điện năng hơn rất nhiều: tiết kiệm gấp 15 lần khi tóm tắt, gấp 35 lần khi dịch và gấp 50 lần khi trả lời câu hỏi. Độ chính xác của các mô hình nhỏ cũng tương đương hoặc thậm chí cao hơn so với mô hình lớn: chính xác hơn 4% khi tóm tắt, hơn 2% khi dịch và hơn 3% khi trả lời câu hỏi.
Trong một thí nghiệm khác, các nhà nghiên cứu muốn biết việc rút ngắn câu hỏi của người dùng và câu trả lời của AI ảnh hưởng thế nào đến lượng điện tiêu thụ. Họ đã tính toán năng lượng cho 1.000 tình huống khác nhau, với độ dài câu hỏi và câu trả lời dao động từ 400 từ tiếng Anh xuống còn 100 từ.
Kịch bản dài nhất (câu hỏi 400 từ, câu trả lời 400 từ) tiêu tốn 1,03 kWh — đủ để thắp sáng bóng đèn 100 watt suốt 10 giờ hoặc chạy tủ lạnh ngăn đá trong 26 giờ. Nếu rút ngắn câu hỏi xuống còn 200 từ thì chỉ tiết kiệm được 5% điện, nhưng nếu rút ngắn câu trả lời của AI xuống 200 từ thì mức tiêu thụ điện giảm mạnh tới 54%.
Để đánh giá tác động toàn cầu của các cách tối ưu hóa đã thử nghiệm, các tác giả đã yêu cầu LLaMA 3.1 8B trả lời một câu hỏi cụ thể. Sau đó, họ tính toán lượng điện cần thiết để mô hình thực hiện nhiệm vụ này và nhân nó với ước tính số lượng yêu cầu tương tự mỗi ngày của người dùng các dịch vụ AI phổ biến như ChatGPT.
Kết quả, nếu kết hợp kỹ thuật làm tròn số thập phân với việc rút ngắn câu hỏi và câu trả lời từ 300 xuống 150 từ, mức tiêu thụ năng lượng có thể giảm tới 75%. Chỉ trong một ngày, mức tiết kiệm này tương đương lượng điện đủ để cung cấp cho 30.000 hộ gia đình trung bình ở Vương quốc Anh (giả sử mỗi hộ dùng 7,4 kWh/ngày). Đáng chú ý là việc tiết kiệm này không làm giảm khả năng xử lý các nhiệm vụ phức tạp hơn của mô hình.
Với các nhiệm vụ lặp đi lặp lại như dịch thuật hay tóm tắt văn bản, mức tiết kiệm lớn nhất đạt được nhờ dùng các mô hình nhỏ, chuyên biệt và rút gọn câu hỏi/câu trả lời — giúp giảm hơn 90% mức tiêu thụ năng lượng (tương đương lượng điện đủ cho 34.000 hộ gia đình Anh dùng trong một ngày).
Nhật Huy dịch từ University College London
Nguồn: https://www.ucl.ac.uk/news/2025/jul/practical-changes-could-reduce-ai-energy-demand-90