🚨 ULTIMO: Le forze armate statunitensi hanno utilizzato l'AI Claude di Anthropic negli attacchi in Iran — Rapporto WSJ
Secondo il Wall Street Journal e vari rapporti di notizie, le forze armate statunitensi (incluso il Comando Centrale degli Stati Uniti) si sono affidate all'AI Claude di Anthropic durante la pianificazione e l'esecuzione dei recenti attacchi in Iran — anche ore dopo che il Presidente Trump ha ordinato alle agenzie federali di smettere di utilizzare la tecnologia dell'azienda. $BNB
Financial Express +1
I ruoli riportati per Claude nell'operazione includevano:
• Valutazioni dell'intelligence
• Identificazione degli obiettivi
• Simulazioni sul campo di battaglia $ETH
L'uso è continuato perché Claude era già profondamente integrato nei flussi di lavoro militari, e i sistemi del Pentagono richiedono un periodo di transizione per sostituirlo — nonostante l'amministrazione Trump abbia pubblicamente designato Anthropic come un rischio per la sicurezza e vietato il suo uso da parte delle agenzie federali. $SOL
Financial Express
Questo sviluppo evidenzia come gli strumenti di AI avanzati siano diventati parte integrante della pianificazione della difesa anche in mezzo a dispute politiche ed etiche sul loro utilizzo.
AInvest
🧠 Nota: L'esatta estensione e natura del ruolo di Claude (ad es., targeting in tempo reale contro supporto all'intelligence) non sono completamente divulgati pubblicamente.


