Thứ Tư, 20 tháng 12, 2023

Trí tuệ nhân tạo ngốn rất nhiều điện. Liệu nó có thể được thỏa mãn?

Christopher Mims

Cù Tuấn biên dịch bài trên Wall Street Journal

Tóm tắt: Cuộc cách mạng về trí tuệ nhân tạo có thể sẽ sớm đòi hỏi nhiều điện năng hơn tất cả các loại xe điện cộng lại.

Mọi công ty đang đặt cược rằng trí tuệ nhân tạo sẽ thay đổi cách chúng ta làm việc và sinh sống đều gặp phải một vấn đề lớn – và đang ngày càng gia tăng: AI vốn rất thèm khát điện năng.

Một số chuyên gia dự đoán rằng mức tiêu thụ điện toàn cầu cho các hệ thống AI có thể sớm yêu cầu phải bổ sung lượng điện năng tương đương với sản lượng điện của một quốc gia nhỏ trên hành tinh của chúng ta. Nhu cầu dùng điện này của AI xuất hiện khi thế giới đang cố gắng điện khí hóa càng nhiều càng tốt và khử cacbon trong cách tạo ra năng lượng, trong bối cảnh phải đối mặt với biến đổi khí hậu.

Theo Cơ quan Năng lượng Quốc tế, kể từ năm 2010, mức tiêu thụ điện năng cho các trung tâm dữ liệu vẫn gần như không thay đổi, tính theo tỷ lệ sản xuất điện toàn cầu, ở mức khoảng 1% so với con số đó. Nhưng việc áp dụng nhanh chóng AI có thể tạo ra sự thay đổi lớn về lượng điện cần thiết để chạy Internet – cụ thể là các trung tâm dữ liệu bao gồm đám mây và biến tất cả các dịch vụ kỹ thuật số mà chúng ta dựa vào trở thành hiện thực.

Theo các chuyên gia cả trong và ngoài ngành, điều này có nghĩa là ngành công nghiệp AI đã sẵn sàng thực hiện một thử nghiệm tương đương với quy mô cấp hành tinh. Điều này khiến một số người trong số họ phải nhún vai và bó tay, trong khi các nhà cung cấp năng lượng thực tế lại đang chảy nước miếng thèm thuồng trước nhu cầu gia tăng điện năng dự kiến.

Như Tạp chí Phố Wall đã đưa tin vào đầu tuần này, Microsoft đang nỗ lực sử dụng các AI của riêng mình để tăng tốc quá trình phê duyệt cho các nhà máy điện hạt nhân mới – nhằm cung cấp năng lượng cho chính hệ thống AI đó. Công ty này cũng đang đặt cược vào các nhà máy điện nhiệt hạch, ký hợp đồng với một công ty khởi nghiệp về nhiệt hạch hứa hẹn sẽ cung cấp điện trong vòng khoảng 5 năm – một bước đi táo bạo vì chưa có ai trên thế giới sản xuất điện từ nhiệt hạch.

Constellation Energy, công ty đã đồng ý bán năng lượng hạt nhân cho các trung tâm dữ liệu Microsoft tiêu thụ, dự đoán rằng nhu cầu năng lượng của AI ở Mỹ có thể gấp 5 đến 6 lần tổng lượng điện cần thiết trong tương lai để sạc cho xe điện của chính nước Mỹ.

Alex de Vries, nhà nghiên cứu tại Trường Kinh doanh và Kinh tế tại Vrije Universiteit Amsterdam, dự kiến vào tháng 10, dựa trên doanh số bán vi mạch hiện tại và tương lai do Nvidia chế tạo dành riêng cho AI, việc sử dụng năng lượng toàn cầu cho các hệ thống AI có thể lên tới 15 gigawatt, kéo dài liên tục. Nvidia hiện chiếm hơn 90% thị phần chip dành riêng cho AI trong các trung tâm dữ liệu, khiến sản lượng của nó trở thành đại diện cho quá trình tính toán việc sử dụng năng lượng của toàn ngành.

Đó là mức tiêu thụ điện năng của cả nước Hà Lan và sẽ yêu cầu toàn bộ sản lượng của khoảng 15 nhà máy điện hạt nhân cỡ trung bình.

Theo ước tính của de Vries, lượng điện cần thiết để cung cấp năng lượng cho các trung tâm dữ liệu của thế giới có thể tăng 50% vào năm 2027, chỉ do các hệ thống AI tiêu thụ.

Những con số đó thậm chí có thể là một con số đánh giá thấp, de Vries nói, bởi vì tính toán của ông không bao gồm chi phí làm mát chip AI trong các trung tâm dữ liệu. Ông cho biết thêm, việc giữ nhiệt độ của các bộ xử lý mạnh mẽ này trong giới hạn phạm vi hoạt động ngày càng trở nên khó khăn khi chúng ngày càng mạnh hơn và việc làm mát có thể bổ sung thêm 10% đến 100% vào tổng lượng điện cần thiết để chạy chúng.

Roberto Verdecchia, một nhà khoa học máy tính tại Đại học Florence, người nghiên cứu mức tiêu thụ năng lượng của phần mềm, cho rằng có thêm lý do khiến việc kiểm đếm của Vries về nhu cầu năng lượng trong tương lai của AI có thể được chứng minh là thấp hơn so với thực tế.

Đầu tiên, các công ty đang đặt cược rằng việc sử dụng AI sẽ tăng mạnh. Nếu, như họ hy vọng, nó trở thành một phần thường xuyên trong mọi việc chúng ta sẽ làm – từ tổng kết mọi cuộc họp đến trở thành cộng tác viên của chúng ta trong mọi dự án – khi đó nhu cầu có thể tăng nhanh như các công ty như Nvidia và các đối thủ cạnh tranh như AMD, Intel và Alphabet, có thể tăng tạo ra các hệ thống cần thiết để đáp ứng nó.

Sự cạnh tranh giữa các nhà cung cấp dịch vụ AI như Microsoft, OpenAI , Google và các nhà cung cấp khác đang thúc đẩy họ dựa vào các mô hình AI lớn hơn và cần nhiều điện năng hơn. Mô hình AI càng lớn thì càng có thể làm được nhiều việc hơn và nhìn chung, nó càng thực hiện tốt hơn nhiều nhiệm vụ khác nhau.

Dường như mỗi tuần trôi qua đều có một sự phát triển lớn mới về AI. Mới nhất là hệ thống Gemini AI mới của Google, được công bố vào tuần trước, được tuyên bố là mạnh hơn bất kỳ hệ thống AI nào khác hiện có trên thị trường.

Luccioni, nhà nghiên cứu AI tại Hugging Face, một công ty sản xuất các công cụ học máy, cho biết: “Hiện nay, xu hướng đang là 'càng lớn càng tốt'". Bà cho biết thêm: “Mỗi mẫu máy ra mắt đều được thông báo kiểu như 'Chúng tôi có nhiều hơn 10 tỷ thông số so với mẫu trước đó'.

Nghiên cứu của Luccioni được đề cập đến trong bài bình luận của de Vries. Trong nghiên cứu của riêng mình, Luccioni đã phát hiện ra rằng có sự khác biệt rất lớn về mức độ sử dụng năng lượng mà các hệ thống AI thực sự sử dụng và điều đó phụ thuộc vào loại phần cứng cơ bản mà chúng đang chạy cũng như cách chúng được sử dụng.

Các nhà cung cấp AI và đám mây lớn như Microsoft và Google cũng đã cam kết đạt mức phát thải carbon ròng bằng 0 trong hoạt động của họ, điều đó có nghĩa là về mặt lý thuyết, năng lượng bổ sung mà họ mua cho các trung tâm dữ liệu của mình đều được cung cấp từ các nguồn không có carbon.

Nhìn chung, Luccioni không tin rằng bất kỳ ai cũng có thể đưa ra những dự đoán hữu ích về việc liệu nhu cầu về AI có tiếp tục đi theo quỹ đạo hiện tại hay không, hay nhu cầu về điện cho nó sẽ là bao nhiêu.

Luccioni nói: “Tôi thực sự không thích đưa ra những tuyên bố trong tương lai về AI. Một năm trước, Chat GPT còn không tồn tại”.

Ngoài ra còn có tranh luận đáng kể về việc liệu AI có ngốn điện hay không. Một mặt, hệ thống AI phải thực hiện lại các phép tính mỗi khi người dùng tương tác với chúng. Điều này hoàn toàn khác so với tìm kiếm thông thường của Google, vốn chỉ là lấy các bản thông tin cũ ra nhắc lại, còn sau này Google bắt đầu kết hợp các bản tóm tắt AI tổng quát vào các kết quả đó. Điều đó một phần là do bản sao của những kết quả đó có thể được lưu trữ hoặc “được lưu vào bộ nhớ đệm” và được cung cấp mỗi khi người khác thực hiện cùng một tìm kiếm giống nhau, Verdecchia nói.

Mặt khác, đã có rất nhiều nghiên cứu cho thấy các mô hình AI có thể được tạo ra hiệu quả hơn nhiều so với hiện tại. Nhiều công ty đang nghiên cứu các mô hình AI nhỏ hơn, ít ngốn điện hơn mà theo họ, cũng hiệu quả như những mô hình lớn hơn. Ví dụ, Microsoft gần đây đã công bố một mô hình ngôn ngữ được đào tạo trên một thư viện sách giáo khoa, thay vì kho văn bản thông thường, về cơ bản là thông tin trên toàn bộ Internet. Các nhà nghiên cứu tại công ty khẳng định điều này giúp AI thực hiện một số nhiệm vụ tốt hơn trong khi cần ít năng lượng hơn để sử dụng.

Tất cả các chuyên gia mà tôi đã nói chuyện đều đồng ý về điểm này: Lý do chính khiến AI tiếp tục đòi hỏi nhiều năng lượng hơn, ngay cả khi có thể đạt được hiệu quả cao hơn, là vì ngay bây giờ, động lực cho mọi người trong ngành là tiếp tục xây dựng các mô hình lớn hơn, mạnh hơn.

Chừng nào sự cạnh tranh giữa các nhà sản xuất AI tiếp tục thúc đẩy các công ty sử dụng những mô hình ngày càng có khả năng cao hơn, ngốn nhiều năng lượng hơn, thì ngành công nghiệp AI toàn cầu sẽ còn cần thêm rất nhiều điện năng nữa. Khi đó, câu hỏi duy nhất là mức tiêu thụ điện năng của nó sẽ tăng với tốc độ nào.

Verdecchia nói: “Ngay bây giờ, trọng tâm là tôi muốn câu trả lời tốt nhất phù hợp với mình, hơn là việc AI tiêu thụ bao nhiêu điện năng”.

C.M.

Nguồn bản dịchFB Cù Tuấn

 

 

1 nhận xét:

Trường thi Hương Nam Định, kỳ thi năm Tân Mão [1891]

  Trường thi Hương Nam Định, kỳ thi năm Tân Mão [1891], các thí sinh đang lều chõng đi thi, một cụ làm bài xong ra ngoài ngồi, còn các cụ kh...