Le directeur du Conseil économique national des États-Unis, Hassett, a révélé mercredi que la Maison Blanche envisage un décret exécutif pour établir un mécanisme de révision pour les modèles d'IA de nouvelle génération comme le Mythos d'Anthropic. Selon Jin10, l'initiative vise à protéger les réseaux d'entreprises et de gouvernements des risques liés à la cybersécurité causés par l'IA. Hassett a déclaré : "Nous explorons, et nous pourrions même introduire, un décret exécutif pour fournir une feuille de route claire pour l'avenir. Les systèmes d'IA qui pourraient poser des vulnérabilités de sécurité devraient passer par un processus pour prouver leur sécurité avant leur publication publique, similaire aux approbations de médicaments par la FDA." Ce développement survient quelques semaines après qu'Anthropic a dévoilé son modèle révolutionnaire Mythos, qui excelle dans l'identification des vulnérabilités de cybersécurité et pourrait poser des risques globaux en matière de cybersécurité. Actuellement, l'entreprise a restreint l'accès à quelques grandes entreprises technologiques et financières, tandis que l'administration Trump a plaidé pour que les agences fédérales intègrent Mythos pour tester les systèmes gouvernementaux. Hassett a souligné : "Nous avons mobilisé l'ensemble du gouvernement et du secteur privé pour garantir des tests complets avant que le modèle ne soit disponible au public, protégeant ainsi les entreprises et le gouvernement des États-Unis." Il reste incertain si le décret exécutif imposera des tests obligatoires pour les systèmes d'IA. Si cela est mis en œuvre, cela signifierait un changement dans la position de Trump sur la régulation de l'IA, car il avait auparavant plaidé pour une approche de non-intervention.