Mito smentito: La richiesta di ChatGPT consuma meno di 1 W/h

Di: Nastya Bobkova | 13.02.2025, 03:32

Il ChatGPT è diventato parte integrante dei flussi di lavoro di molti utenti, ma con la sua popolarità sono cresciute anche le preoccupazioni per l'elevato consumo energetico. Tuttavia, un nuovo studio di Epoch AI confuta queste preoccupazioni.

Ecco cosa sappiamo

Il ricercatore Joshua Yu ha calcolato che una singola domanda a ChatGPT (basata su GPT-4o) consuma circa 0,3 W/h, molto meno di quanto ipotizzato in precedenza. Per fare un confronto, in precedenza si pensava che ogni interrogazione al chatbot consumasse 3 W/h, ma questo calcolo si basava su dati obsoleti e su un hardware meno efficiente.

Joshua osserva che questo consumo energetico è molto inferiore a quello della maggior parte degli elettrodomestici. Inoltre, le aziende tecnologiche stanno lavorando attivamente per migliorare l'efficienza energetica dell'intelligenza artificiale. Le nuove generazioni di chip per l'intelligenza artificiale stanno diventando non solo più potenti, ma anche meno dispendiose dal punto di vista energetico.

Tuttavia, con lo sviluppo dell'intelligenza artificiale, il consumo di elettricità continuerà ad aumentare. I modelli incentrati su compiti più complessi richiederanno una maggiore potenza di calcolo e i futuri agenti di IA saranno in grado di svolgere diversi compiti di livello umano.

Si prevede che i futuri agenti di IA saranno in grado di lavorare a livello umano in vari campi, il che porterà a un aumento del numero di centri dati e, di conseguenza, a un aumento del consumo energetico.

"L'IA continuerà a evolversi e la sua formazione richiederà sempre più risorse. In futuro, questi sistemi lavoreranno in modo molto più intensivo, svolgendo compiti più complessi di quelli attuali", ha concluso lo scienziato.

Fonte: Android Headlines