(e perché il business non è il consumer)
Diciassette miliardi di dollari di perdite previste nel 2025. Un fabbisogno cumulato che, secondo le stime circolate in questi giorni, potrebbe arrivare a 150 miliardi prima del pareggio atteso non prima del 2030. La notizia sulle perdite annunciate di OpenAI, guidata da Sam Altman, ha riaperto il dibattito: genialità o follia industriale?
Per capirlo conviene partire dall’unità minima del sistema. Una risposta.
E sì, i numeri che seguono li ho analizzati con il supporto di ChatGPT e Perolexity.
Nel 2024 OpenAI ha generato circa 3,5–4 miliardi di dollari di ricavi, ma ha sostenuto costi di gran lunga superiori, in larga parte concentrati su calcolo e infrastruttura. Le stime più accreditate indicano che oltre il 60 per cento della spesa vada in GPU, data center dedicati, energia elettrica e reti ad altissima capacità. Addestrare un modello di frontiera costa oggi tra uno e due miliardi di dollari a ciclo. E poi c’è l’inferenza: le risposte quotidiane, miliardi di volte al mese.
Un altro 15–20 per cento dei costi è assorbito da cloud, raffreddamento, ridondanza e distribuzione globale. Il resto va in ricerca, personale iper-specializzato, sicurezza, compliance e governance. Non marketing. Non uffici di rappresentanza. Acciaio digitale, per capirci.
Tradotto in pratica: una risposta ‘media’ ha un costo industriale nell’ordine dei centesimi di dollaro, variabile a seconda di modello, lunghezza e complessità. Ogni volta che risponde il sistema consuma calcolo, energia, infrastruttura. È qui che il consumer mostra il suo limite strutturale.
Un abbonamento da 20 dollari al mese, distribuito su decine o centinaia di interazioni, genera pochi centesimi per risposta, quando va bene. In molti casi meno. Il risultato è semplice: sul consumer, costo e ricavo tendono a pareggiarsi o a scompensarsi. Non è un problema di prezzo. È un problema di fisica economica.
La stessa risposta, però, inserita in un contesto aziendale, cambia natura. Se accelera un’analisi, riduce un errore o supporta una decisione, il suo valore non è più di centesimi ma di decine o centinaia di dollari. Un knowledge worker costa facilmente oltre 100 mila dollari l’anno. Risparmiarne anche solo una frazione significa creare valore che il costo computazionale non intacca minimamente.
Ecco perché l’intelligenza artificiale non è — e probabilmente non sarà — un business consumer nel senso classico. Il consumer serve per scala, addestramento, diffusione culturale. I soldi veri stanno altrove nei contratti enterprise, modelli verticali, integrazione nei processi critici.
Il tema delle perdite annunciate, va inquadrato quindi nella cornice in cui l’IA oggi brucia cassa perché costa come un’infrastruttura industriale. Guadagnerà solo se riuscirà a diventarlo davvero.
Alla fine della terza interazione per preparare il pezzo in modo simpatico chat gpt mi ha detto ‘nel frattempo, mi fermerei qui.
Perché anche le risposte per farti scrivere questo articolo hanno un costo che non si ripaga con il tuo abbonamento’.











