La startup guidata da Altman subentra a quella di Amodei nelle forniture al dipartimento della Guerra guidato da Hegseth. Ma negli attacchi all’Iran le previsioni di scenario si sono basate ancora su elaborazioni di Claude
OpenAi, il gruppo dell’intelligenza artificiale di Sam Altman che ha sviluppato ChatGpt, sostituirà Anthropic nella fornitura di modelli d’intelligenza artificiale per le reti cloud ad alta segretezza del Pentagono.
Altman: rispetto per la sicurezza
Ad annunciare l’accordo, parlando di “profondo rispetto per la sicurezza”, è lo stesso Altman. “Due dei nostri più importanti principi di sicurezza sono il divieto della sorveglianza di massa a livello nazionale e la responsabilità umana nell’uso della forza, compresi i sistemi d’arma autonomi”, ha detto.
“Metteremo anche in atto misure di salvaguardia tecnica per garantire che i nostri modelli funzionino come dovrebbero, che è anche ciò che voleva” il Pentagono, ha aggiunto.


Lo scontro con Anthropic
Il cambio di ‘fornitore’ arriva a poche ore dalla scelta di Anthropic di non cedere alle pressioni del Pentagono sull’uso senza limiti del suo chatbot per scopi militari, tra cui appunto la sorveglianza di massa degli americani e lo sviluppo di armi autonome.
Il no ha portato alla rottura dell’accordo con la società, bollata da Donald Trumo come un’azienda “woke” e il divieto all’uso dei prodotti di Anthropic, con l’etichetta ‘supply chain risk’ finora usata soltanto contro società cinesi o russe, equiparandola a società straniere come Zte, Huawei o Karspersky Lab.
Lo scontro è destinato a proseguire, con Anthropic che ha denunciato l'”intimidazione” del Pentagono, e assicurato che ricorrerà in tribunale contro il divieto. Non ci saranno “punizioni” in grado di smuovere la sua presa di posizione etica: “sfideremo in tribunale” qualunque designazione di Anthropic come un prestatore di forniture “rischioso”.
Claude usato contro l’Iran
La rottura con Anthropic è avvenuta anche nelle ore in cui gli Usa hanno sferrato con Israele l’attacco sull’Iran. Ad oggi Claude è l’unico modello Ia utilizzato in operazioni segrete, come quella che a inizio gennaio ha condotto alla cattura del presidente venezuelano deposto Nicolas Maduro.
E anche contro l’Iran il Pentagono ha usato il modello Anthropic per – secondo il Wsj – le valutazioni di intelligence, l’identificazione dei target e per simulare scenari di battaglia.

















