Mit obalony: żądanie ChatGPT zużywa mniej niż 1 W/h

ChatGPT stał się integralną częścią przepływu pracy wielu użytkowników, ale wraz z jego popularnością wzrosły również obawy dotyczące wysokiego zużycia energii. Jednak nowe badanie przeprowadzone przez Epoch AI obala te obawy.
Co wiadomo
Badacz Joshua Yu obliczył, że pojedyncze pytanie do ChatGPT (oparte na GPT-4o) zużywa około 0,3 W/h, czyli znacznie mniej niż wcześniej zakładano. Dla porównania, wcześniej uważano, że każde zapytanie chatbota zużywało 3 W/h, ale obliczenia te opierały się na nieaktualnych danych i mniej wydajnym sprzęcie.
Joshua zauważa, że to zużycie energii jest znacznie niższe niż w przypadku większości urządzeń gospodarstwa domowego. Ponadto firmy technologiczne aktywnie pracują nad poprawą efektywności energetycznej sztucznej inteligencji. Nowe generacje chipów AI stają się nie tylko bardziej wydajne, ale także mniej energochłonne.
Jednak w miarę rozwoju sztucznej inteligencji zużycie energii elektrycznej będzie nadal rosło. Modele skoncentrowane na bardziej złożonych zadaniach będą wymagały większej mocy obliczeniowej, a przyszli agenci AI będą w stanie wykonywać różne zadania na poziomie ludzkim.
Oczekuje się, że przyszli agenci AI będą w stanie pracować na poziomie ludzkim w różnych dziedzinach, co doprowadzi do wzrostu liczby centrów danych, a w konsekwencji do wzrostu zużycia energii.
"Sztuczna inteligencja będzie nadal ewoluować, a jej szkolenie będzie wymagało coraz większych zasobów. W przyszłości systemy te będą pracować znacznie intensywniej, wykonując bardziej złożone zadania niż obecnie" - podsumował naukowiec.
Źródło: Android Headlines