Ogni 100 giorni l’intelligenza artificiale raddoppia la sua sete di energia. Per ridurne i consumi, secondo l’Unesco, potrebbe servire il dono della sintesi
Tra i temi sollevati dal progresso dell’intelligenza artificiale c’è anche quello della sua sostenibilità energetica. Per avere un’idea dell’ordine di grandezza, basta pensare che recentemente Sam Altman, il ceo di OpenAI, ha rivelato che ogni richiesta inviata a ChatGpt consuma in media 0,34 Wh di elettricità. Circa un miliardo di richieste al giorno equivalgono a 310 GWh l’anno, equivalenti al consumo annuo di elettricità di tre milioni di persone in Etiopia.
In uno studio presentato all’AI Global Summit, l’Unesco ha evidenziato come la domanda di energia dell’intelligenza artificiale raddoppia ogni 100 giorni, man mano che questi strumenti diventano parte integrante della vita di tutti i giorni.
E un suggerimento per cercare di ridurre l’impatto è quello di porre domande più brevi.
Richieste più sintetiche e consumi ridotti
“La crescita esponenziale della potenza computazionale necessaria per eseguire questi modelli – avverte lo studio – sta esercitando una pressione crescente sui sistemi energetici globali sulle risorse idriche e sui minerali critici sollevando preoccupazioni sulla sostenibilità ambientale, sull’accesso equo e sulla concorrenza per risorse limitate”.
Una combinazione di richieste più brevi e l’utilizzo di modelli più piccoli e più specifici potrebbe ridurre il consumo di energia dell’intelligenza artificiale fino al 90% senza sacrificare le prestazioni, afferma l’Unesco.
Ad oggi, infatti, molti modelli di intelligenza artificiale come ChatGpt sono generici e progettati per rispondere ad un’ampia varietà di argomenti. Questo significa che devono vagliare un immenso volume di informazioni per formulare e valutare le risposte.
L’analisi sottolinea che sarebbe utile per la riduzione del consumo di energia anche un taglio dei suggerimenti ai chatbot da 300 a 150 parole.
















