Anthropic fa causa al governo degli Stati Uniti dopo essere stata etichettata come un “rischio nella catena di fornitura” nella controversia sull’intelligenza artificiale

La società di intelligenza artificiale Anthropic ha intentato una causa senza precedenti contro il governo degli Stati Uniti dopo essere stata formalmente etichettata come un “rischio nella catena di fornitura”, intensificando un’aspra disputa sull’uso militare della tecnologia avanzata di intelligenza artificiale.

L’azione legale, intentata in un tribunale federale in California, contesta una direttiva emessa dall’amministrazione di Donald Trump che di fatto vietava alle agenzie governative statunitensi di utilizzare i sistemi di intelligenza artificiale di Anthropic. La società sostiene che la mossa è stata una ritorsione politicamente motivata dopo aver rifiutato di rimuovere le restrizioni su come la sua tecnologia potrebbe essere utilizzata dalle forze armate statunitensi.

La causa di Anthropic sostiene che la decisione è stata “senza precedenti e illegale” e ha violato le tutele costituzionali relative alla libertà di parola e al giusto processo.

“La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola protetta”, ha affermato l’azienda nella sua denuncia. “Nessuno statuto federale autorizza le azioni intraprese qui.”

Il conflitto nasce da un disaccordo tra l’amministratore delegato di Anthropic, Dario Amodei, e funzionari della difesa statunitensi, tra cui Pete Hegseth, su come gli strumenti di intelligenza artificiale dell’azienda potrebbero essere utilizzati dal Pentagono.

Anthropic mantiene da tempo rigidi limiti contrattuali sull’impiego della sua tecnologia, compresi i divieti sull’uso dei suoi modelli di intelligenza artificiale per la “guerra autonoma letale” e per la sorveglianza interna di massa dei cittadini americani.

Secondo la causa, i funzionari della difesa hanno chiesto alla società di rimuovere queste restrizioni dai suoi contratti governativi. Anthropic ha rifiutato, sostenendo che tali garanzie erano essenziali per garantire un uso responsabile di potenti sistemi di intelligenza artificiale.

La società ha affermato che i negoziati con il Dipartimento della Difesa erano inizialmente in corso e che entrambe le parti stavano lavorando per un linguaggio rivisto che consentisse una cooperazione continua preservando i limiti etici.

Tuttavia, secondo quanto riferito, tali colloqui sono falliti dopo l’intervento della Casa Bianca.

In seguito alla rottura dei negoziati, il Pentagono ha designato Anthropic come un “rischio della catena di fornitura” – una classificazione normalmente applicata alle aziende considerate partner insicuri o inaffidabili per i sistemi governativi.

La designazione impedisce di fatto alle agenzie governative e agli appaltatori statunitensi di utilizzare gli strumenti software di Anthropic.

La mossa è stata accompagnata da critiche pubbliche da parte dell’amministrazione Trump, con funzionari della Casa Bianca che hanno accusato la compagnia di tentare di dettare la politica militare.

Liz Huston, portavoce della Casa Bianca, ha detto ai giornalisti che Anthropic era “una società sveglia e di sinistra radicale” che cercava di imporre le proprie condizioni sulle operazioni di difesa nazionale.

“Sotto l’amministrazione Trump, le nostre forze armate obbediranno alla Costituzione degli Stati Uniti e non ai termini di servizio di alcuna società di intelligenza artificiale”, ha affermato Huston.

Anthropic contesta tale caratterizzazione e sostiene che le sue restrizioni fossero disposizioni contrattuali standard progettate per prevenire l’uso improprio dei sistemi di intelligenza artificiale.

La sfida legale nomina un ampio elenco di imputati, tra cui l’ufficio esecutivo del presidente Trump e alti funzionari governativi come Marco Rubio e Howard Lutnick.

La causa prende di mira anche 16 agenzie federali, inclusi i Dipartimenti della Difesa, della Sicurezza Nazionale e dell’Energia.

Anthropic sostiene che la direttiva che vieta la sua tecnologia ha causato notevoli danni commerciali e reputazionali.

La società ha affermato che sia i contratti commerciali attuali che quelli futuri sono ora in pericolo, mettendo potenzialmente a repentaglio “centinaia di milioni di dollari nel breve termine”.

Ha inoltre sostenuto che la decisione aveva creato un effetto dissuasivo più ampio in tutto il settore tecnologico, scoraggiando le aziende dal parlare pubblicamente dei rischi associati all’intelligenza artificiale avanzata.

Il caso ha già ottenuto il sostegno di tutto il settore tecnologico.

Quasi 40 dipendenti di aziende rivali incluse Google e OpenAI ha presentato una memoria legale congiunta a sostegno della posizione di Anthropic, nonostante le aziende siano concorrenti nel settore dell’intelligenza artificiale in rapida espansione.

I firmatari hanno avvertito che l’impiego di sistemi avanzati di IA senza garanzie potrebbe creare seri rischi, in particolare se utilizzati per la sorveglianza di massa o armi autonome.

“Come gruppo, siamo diversi nelle nostre politiche e filosofie”, hanno scritto gli ingegneri nella loro presentazione. “Ma siamo uniti nella convinzione che gli odierni sistemi di intelligenza artificiale di frontiera presentino rischi quando utilizzati per consentire la sorveglianza di massa nazionale o il funzionamento di sistemi di armi letali autonomi senza supervisione umana”.

Il sistema di intelligenza artificiale di punta di Anthropic, Claude, è diventato ampiamente utilizzato da aziende tecnologiche e sviluppatori per attività di codifica, ricerca e software aziendale.

Aziende come Microsoft, Amazon e Meta hanno confermato che continueranno a utilizzare la tecnologia in applicazioni commerciali, anche se non in progetti che coinvolgono le agenzie di difesa statunitensi.

Anthropic non chiede alcun risarcimento finanziario in questo caso. Chiede invece alla Corte di dichiarare incostituzionale la direttiva del governo e di rimuovere immediatamente la designazione di “rischio nella catena di fornitura”.

Gli esperti legali ritengono che la controversia potrebbe diventare un caso fondamentale nel definire il modo in cui i governi interagiscono con gli sviluppatori di intelligenza artificiale.

Carl Tobias, professore di diritto all’Università di Richmond, ha affermato che il caso potrebbe infine raggiungere la Corte Suprema degli Stati Uniti.

“Anthropic potrebbe benissimo vincere in tribunale federale”, ha detto Tobias. “Ma questa amministrazione non è timida nel ricorrere in appello. Probabilmente andrà alla Corte Suprema.”

Il risultato potrebbe avere importanti implicazioni per il settore dell’intelligenza artificiale in rapida crescita, in particolare perché i governi di tutto il mondo si affidano sempre più ad aziende tecnologiche private per fornire sistemi di intelligenza artificiale critici per operazioni di difesa, intelligence e sicurezza nazionale.

Per ora, la causa segna un raro momento in cui un’importante azienda tecnologica sfida apertamente l’autorità governativa sul futuro impiego dell’intelligenza artificiale.


Jamie Young

Jamie Young

Jamie è Senior Reporter presso Business Matters e vanta oltre un decennio di esperienza nel reporting aziendale delle PMI del Regno Unito. Jamie ha conseguito una laurea in Economia aziendale e partecipa regolarmente a conferenze e workshop di settore. Quando non racconta gli ultimi sviluppi aziendali, Jamie è entusiasta di fare da mentore a giornalisti e imprenditori emergenti per ispirare la prossima generazione di leader aziendali.

Latest articles

Related articles