AI làm tăng gánh nặng năng lượng?

Đằng sau những hứa hẹn về tiềm năng vượt trội của trí tuệ nhân tạo (AI) là những đòi hỏi khổng lồ về nguồn năng lượng để tính toán và lưu trữ dữ liệu, cùng với nguồn nước sạch để làm mát các máy tính và trung tâm dữ liệu.

Trung tâm dữ liệu của Amazon ở một khu ngoại ô Bắc Virginia.

Hai tháng sau khi ra mắt vào tháng 11/2022, ChatGPT của OpenAI đã có 100 triệu người dùng, và bỗng nhiên các tập đoàn công nghệ lao vào một cuộc đua để giới thiệu với công chúng thêm các “AI tạo sinh” mới. Các nhà bình luận so sánh tầm ảnh hưởng của công nghệ mới này với internet, điện, cuộc cách mạng công nghiệp, và cả việc tìm ra lửa.

Thời gian sẽ tách những điều cường điệu khỏi thực tế, nhưng sự bùng nổ của AI có một hệ quả rõ ràng: AI để lại dấu ấn môi trường rất lớn và ngày càng tăng. Và các nhà quản lý ở EU và Mỹ bắt đầu yêu cầu làm rõ trách nhiệm trong vấn đề này. 

Việc sử dụng AI có liên quan trực tiếp đến lượng khí thải carbon từ năng lượng không tái tạo và về hàng triệu lít nước ngọt bị tiêu thụ, và gián tiếp đẩy mạnh việc xây dựng và duy trì các thiết bị tiêu tốn điện năng để chạy AI. Khi các công ty công nghệ tìm cách nhúng các AI cường độ cao vào mọi thứ, từ viết sơ yếu lý lịch đến thuốc ghép thận và từ lựa chọn thức ăn cho chó đến mô hình khí hậu, họ dẫn ra nhiều cách mà AI có thể giúp giảm tác động môi trường của con người. Nhưng các nhà lập pháp, các nhà quản lý, các nhà hoạt động và các tổ chức quốc tế hiện muốn đảm bảo những mối nguy ngày càng tăng của AI không lấn át những hứa hẹn về lợi ích.

“Việc phát triển các công cụ AI thế hệ tiếp theo không thể được đánh đổi bằng sức khỏe của hành tinh của chúng ta,” thượng nghị sỹ bang Massachusetts Edward Markley, Mỹ phát biểu hồi đầu tháng hai ở Washington, sau khi ông cùng các nghị sỹ và đại biểu khác trình một dự luật yêu cầu chính phủ liên bang đánh giá dấu ấn môi trường hiện tại của AI và phát triển một hệ thống chuẩn hóa để báo cáo các tác động trong tương lai. Tương tự, Luật AI của EU, mới được các quốc gia thành viên tán thành, sẽ yêu cầu các “hệ thống AI nguy cơ cao” (trong đó có các mô hình mạnh được sử dụng cho ChatGPT và các AI tương tự) báo cáo về điện năng tiêu thụ, tài nguyên sử dụng và các tác động khác trong suốt vòng đời của hệ thống. Luật AI của EU sẽ được thực thi từ năm tới.

Cơ quan Năng lượng Quốc tế (IEA) dự đoán vào năm 2026, lượng điện năng tiêu thụ của các trung tâm dữ liệu trên thế giới sẽ gấp đôi so với năm 2022.

Trong khi đó, Tổ chức Tiêu chuẩn hóa Quốc tế (ISO), tổ chức toàn cầu phát triển các tiêu chuẩn cho các nhà sản xuất, các nhà quản lý, v.v., cho biết sẽ ban hành các tiêu chuẩn “AI bền vững” vào cuối năm nay. Bộ tiêu chuẩn này sẽ bao gồm các tiêu chuẩn đo hiệu suất sử dụng năng lượng, sử dụng nguyên liệu thô, vận tải, mức tiêu thụ nước, cũng như các biện pháp để giảm tác động của AI trong suốt vòng đời, từ quá trình khai thác nguyên liệu và sản xuất linh kiện máy tính đến điện năng tiêu thụ khi tính toán. ISO muốn giúp cho người sử dụng có đủ thông tin khi đưa ra các quyết định về việc sử dụng AI.

Hiện tại, chưa thể nói được yêu cầu AI làm giúp bài tập hay vẽ một bức ảnh phi hành gia cưỡi ngựa ảnh hưởng như thế nào đến phát thải carbon hay trữ lượng nước ngọt. Bởi vậy, loạt đề xuất về “AI bền vững” mô tả nhiều cách thu thập thêm thông tin về tác động của AI.

Khi chưa có các tiêu chuẩn và quy định, các công ty công nghệ đưa vào các báo cáo về tác động của AI những gì họ muốn, theo cách họ muốn, theo Shaolei Ren, giáo sư điện tử và tin học tại Đại học California Riverside, người đã có một thập kỷ nghiên cứu về chi phí tiêu thụ nước của các hệ thống máy tính. Từ những tính toán về lượng nước tiêu thụ hằng năm cho các hệ thống làm mát của Microsoft, Ren ước tính rằng chỉ một phiên hỏi đáp của một người với ChatGPT-3 (khoảng 10 đến 50 câu trả lời) khiến nửa lít nước ngọt bị tiêu thụ. “Con số thay đổi theo vùng, và có thể nhiều hơn đối với các AI lớn hơn.” Nhưng còn nhiều điều chưa được tiết lộ về hàng triệu lít nước được dùng để làm mát các máy tính chạy AI, ông nói thêm.

Với carbon cũng vậy.

“Các nhà khoa học dữ liệu hiện chưa thể truy cập vào các thông số đo lường [về tác động của AI đối với khí nhà kính] một cách dễ dàng hoặc chắc chắn, điều này ngăn cản việc phát triển các chiến thuật hành động,” một nhóm 10 nhà nghiên cứu hàng đầu về tác động của AI viết trong một bài báo hội thảo năm 2022. Từ khi bài báo được trình bày đến nay, số lượng ứng dụng và người dùng AI đã nở rộ, nhưng công chúng vẫn mù tịt về các dữ liệu đó, Jesse Dodge, nhà khoa học làm việc tại Viện Allen về AI (Allen Institute for Artificial Intelligence), Seattle, một đồng tác giả của bài báo, cho biết.

Ai-Da, robot họa sỹ sử dụng AI.

AI có thể chạy trên nhiều thiết bị – AI đơn giản sửa lỗi chính tả cho tin nhắn có thể chạy trên điện thoại thông minh. Nhưng thứ AI người ta muốn dùng nhất lại quá lớn cho hầu hết các thiết bị cá nhân, Dodge nói. “Các mô hình có khả năng làm thơ hoặc soạn email rất lớn. Kích thước là vấn đề sống còn để các AI đạt được những khả năng đó.”

Các AI lớn cần chạy một lượng tính toán khổng lồ trong thời gian rất ngắn, thường được thực hiện trên các đơn vị xử lý đồ họa (GPU) chuyên dụng. GPU là các bộ vi xử lý vốn được thiết kế cho các tính toán nặng để hiển thị đồ họa trên màn hình máy tính; so với các bộ vi xử lý khác, chúng có hiệu suất năng lượng tốt hơn cho AI, và hiệu quả nhất khi chạy trong các “trung tâm dữ liệu đám mây” lớn – các tòa nhà chuyên dụng đầy các máy tính trang bị GPU. Trung tâm dữ liệu càng lớn thì hiệu suất năng lượng càng cao. Những cải thiện về hiệu suất năng lượng của AI trong những năm gần đây một phần nhờ vào việc xây dựng thêm các “trung tâm dữ liệu siêu quy mô” với số lượng máy tính lớn hơn và có thể nhanh chóng mở rộng. Trong khi một trung tâm dữ liệu thông thường chiếm diện tích khoảng 9.000m2, một trung tâm siêu quy mô có thể chiếm 90.000, thậm chí gần 200.000m2.

Ước tính có khoảng 9.000 đến gần 11.000 trung tâm dữ liệu đám mây trên toàn thế giới, và chúng vẫn đang tiếp tục được xây thêm. Cơ quan Năng lượng Quốc tế (IEA) dự đoán năm 2026, lượng điện năng tiêu thụ của các trung tâm dữ liệu trên thế giới sẽ gấp đôi so với năm 2022: 1000 terawatt, tương đương tiêu thụ điện năng hiện tại của cả nước Nhật.

Tuy nhiên, các ước lượng của IEA minh họa cho một vấn đề gặp phải khi đo lường tác động của AI: tính tất cả mọi hoạt động của các trung tâm dữ liệu, vượt khỏi phạm vi AI và bao gồm nhiều khía cạnh của cuộc sống hiện đại. Chạy giao diện của cửa hàng trực tuyến Amazon, cung cấp video cho dịch vụ Apple TV, lưu trữ hàng triệu email trên Gmail, và “đào” Bitcoin cũng là các hoạt động được thực hiện bởi các trung tâm dữ liệu. (Các báo cáo khác của IEA không tính các hoạt động liên quan đến tiền mã hóa, nhưng vẫn gộp chung tất cả các hoạt động khác.)

Hầu hết các công ty công nghệ sở hữu các trung tâm dữ liệu không tiết lộ bao nhiêu phần trăm năng lượng được dùng cho AI. Ngoại lệ duy nhất là Google, công ty này cho biết “học máy” – cơ sở của AI giống con người – chiếm dưới 15 phần trăm tổng tiêu thụ năng lượng của các trung tâm dữ liệu của họ.

Điều phức tạp tiếp theo là không như đào Bitcoin hay mua sắm trực tuyến, AI có thể được dùng để giảm tác động môi trường của con người, chẳng hạn như người ta có thể dùng AI để cải thiện các mô hình khí hậu, tìm ra các cách hiệu quả hơn để tạo ra các công nghệ số, giảm rác thải trong vận tải, và giảm phát thải carbon và tiêu thụ nước. Thí dụ, một ước lượng cho thấy các ngôi nhà thông minh chạy bằng AI có thể giúp các gia đình giảm phát thải carbon đến 40 phần trăm. Và một dự án mới đây của Google cho thấy một AI tính toán nhanh trên các dữ liệu khí quyển có thể giúp phi công bay theo các đường để lại ít vệt hơi nước nhất.

Vì các vệt hơi nước gây ra hơn một phần ba đóng góp của hàng không thương mại vào sự ấm lên của Trái đất, theo Dave Patterson, giáo sư tin học danh dự tại Đại học California Berkeley và nhà khoa học làm việc tại Google, “nếu toàn bộ ngành hàng không tận dụng đột phá AI này, chỉ riêng một khám phá này sẽ giúp cắt giảm một lượng CO2e (CO2 và các khí nhà kính khác) lớn hơn lượng CO2e tạo ra bởi tất cả các AI trong năm 2020.”

Phân tích của Patterson dự đoán rằng dấu ấn carbon của AI sẽ sớm đi ngang rồi bắt đầu giảm nhờ vào những cải thiện về hiệu suất sử dụng năng lượng của các phần mềm và phần cứng AI. Sau đây là một dữ liệu phản ánh sự cải thiện hiệu suất năng lượng đó: tính từ năm 2019, việc sử dụng AI tăng nhiều nhưng tỷ lệ của AI trong tiêu thụ năng lượng của các trung tâm dữ liệu của Google luôn duy trì ở dưới 15%. Và trong khi lưu lượng internet toàn cầu đã tăng 20 lần từ 2010, phần tiêu thụ điện năng toàn cầu của các trung tâm dữ liệu và mạng tăng ít hơn rất nhiều, theo IEA.

Tuy nhiên, dữ liệu về sự cải thiện hiệu suất không thuyết phục được một số người hoài nghi. Họ dẫn một hiện tượng xã hội gọi là “nghịch lý Jevons”: giảm chi phí một tài nguyên có thể làm tăng lượng tiêu thụ nó về lâu dài. “Đó là một hiệu ứng nảy ngược,” Ren nói. “Anh mở rộng đường cao tốc, người ta sẽ đỡ tốn xăng hơn vì giao thông nhanh hơn, nhưng rồi sẽ có thêm nhiều xe đi vào hơn. Tiêu thụ xăng sẽ cao hơn trước.” Nếu hệ thống sưởi của một ngôi nhà hiệu quả hơn 40% nhờ AI, một người chỉ trích viết, người ta có thể sẽ sưởi cho nhà ấm hơn và trong nhiều giờ hơn.

“AI là chất tăng tốc cho mọi thứ,” Dodge nói. “Nó làm cho bất cứ thứ gì ta đang làm tiến triển nhanh hơn.” Ở Viện Allen, AI giúp phát triển các chương trình máy tính tốt hơn để mô hình hóa khí hậu, theo dõi các loài bị đe dọa, hạn chế đánh bắt quá đà, ông nói. Nhưng một cách toàn cục, AI cũng có thể hỗ trợ “nhiều ứng dụng có thể đẩy nhanh biến đổi khí hậu. Đây là nơi anh gặp các câu hỏi đạo đức về loại AI anh muốn.”

Nếu tiêu thụ điện năng toàn cầu có vẻ hơi trừu tượng, tiêu thụ nước của các trung tâm dữ liệu là một vấn đề địa phương và hữu hình – nhất là ở những khu vực bị khô hạn. Để làm mát các thiết bị điện tử trong các trung tâm dữ liệu sạch sẽ, nước phải không có vi khuẩn và tạp chất có thể gây hỏng hóc. Nói cách khác, các trung tâm dữ liệu thường cạnh tranh “cùng một loại nước mà ta dùng để uống, nấu ăn và tắm rửa,” Ren nói.

Năm 2022, Ren cho biết, các trung tâm dữ liệu của Google tiêu thụ khoảng 20 tỷ lít nước ngọt cho việc làm mát. (Khái niệm “tiêu thụ” ở đây không tính lượng nước chạy qua một tòa nhà rồi quay về nguồn). Theo một nghiên cứu gần đây của Ren, lượng nước tiêu thụ của các trung tâm dữ liệu của Google trong năm 2022 tăng 20% so với năm 2021, còn tiêu thụ nước của Microsoft tăng 34% trong cùng giai đoạn. (Các trung tâm dữ liệu của Google chứa chatbot Bard và các AI tạo sinh khác. Các máy chủ của Microsoft chứa ChatGPT và các anh chị em lớn hơn GPT-3 và GPT-4; cả ba là sản phẩm của OpenAI, mà Microsoft là một nhà đầu tư lớn).

Khi ngày càng nhiều các trung tâm dữ liệu được xây mới hoặc mở rộng, các nhà quản lý lại rất vất vả để biết các trung tâm dữ liệu này lấy mất bao nhiêu nước. Thí dụ, ở thành phố The Dalles, Oregon, nơi Google có ba trung tâm dữ liệu và có kế hoạch xây thêm hai, chính quyền thành phố đệ đơn kiện vào năm 2022 để lượng nước tiêu thụ của Google được giữ bí mật đối với nông dân, người hoạt động môi trường, và các bộ lạc người Mỹ bản địa, những người lo ngại về ảnh hưởng của nó đối với nông nghiệp và động thực vật trong vùng. Đầu năm ngoái thành phố đã rút đơn kiện. Những số liệu được công bố sau đó cho thấy ba trung tâm dữ liệu hiện có của Google dùng hơn một phần tư trữ lượng nước của thành phố. Và ở Chile và Uruguay đã diễn ra các cuộc biểu tình phản đối các kế hoạch xây dựng trung tâm dữ liệu của Google lấy nước từ các hồ chứa nước sạch.

Trên hết, các nhà khoa học cho rằng điều cần thiết là một sự thay đổi văn hóa trong thế giới đặc biệt của ngành AI. Những nhà phát triển các AI tạo sinh cần quan tâm rộng hơn, vượt ra ngoài những bước nhảy vọt về kỹ thuật của những sáng tạo mới nhất của họ và bớt cảnh giác hơn về các chi tiết về dữ liệu, phần mềm và phần cứng họ dùng để tạo ra chúng.

Một ngày nào đó trong tương lai, Dodge nói, các nhà phát triển AI có thể có khả năng – hoặc bị luật pháp bắt buộc – thông báo với người dùng về lượng nước và tác động carbon của từng yêu cầu họ đưa ra. “Đó sẽ là một công cụ tuyệt vời giúp cho môi trường,” ông nói. Nhưng hiện nay người dùng cá nhân không có nhiều thông tin hoặc khả năng để biết dấu ấn môi trường AI của mình, và càng ít thông tin để đưa ra quyết định về nó.

“Thật không may, cá nhân thì chẳng làm được gì mấy,” Ren nói. Hiện tại, bạn chỉ có thể “cố gắng sử dụng dịch vụ một cách thận trọng.”.□

Nguyễn Hoàng Thạch dịch

Nguồn: https://e360.yale.edu/features/artificial-intelligence-climate-energy-emissions, 06/02/2024

Bài đăng Tia Sáng số 14/2024

Tác giả

(Visited 85 times, 2 visits today)