Les autorités américaines ont annoncé mardi un changement de cap sur l’intelligence artificielle : l’État pourra désormais accéder à certains nouveaux modèles développés par de grands groupes technologiques avant leur mise sur le marché. Cette évolution intervient alors que l’administration de Donald Trump avait jusque-là adopté une ligne plus souple sur la régulation du secteur.
Selon les informations rapportées par Insider Paper, les accords concernent Google DeepMind, Microsoft et xAI. Des responsables américains ont précisé qu’ils s’appuient sur des ententes conclues sous la présidence de Joe Biden, puis renégociées sous Donald Trump. Le gouvernement n’a pas indiqué si ces accords sont directement liés à un autre dispositif en discussion à la Maison Blanche.
D’après Insider Paper, le New York Times a révélé lundi que l’exécutif américain examine un projet de décret visant à créer un groupe de travail réunissant dirigeants de la tech et responsables publics. Cette instance serait chargée d’étudier d’éventuelles procédures d’examen pour les nouveaux modèles d’IA avant leur diffusion.
Le Center for AI Standards and Innovation (CAISI), rattaché au département du Commerce, a indiqué qu’il mènera des évaluations avant déploiement ainsi que des recherches ciblées pour mieux mesurer les capacités de l’IA de pointe et faire progresser la sécurité du secteur. Cette structure a remplacé le US Artificial Intelligence Safety Institute, mis en place par l’administration Biden en 2023.
Sous Joe Biden, un décret présidentiel imposait aux développeurs d’IA de transmettre au gouvernement les résultats de leurs tests de sécurité, tout en demandant aux agences fédérales de fixer des normes pour cette technologie. Donald Trump a ensuite annulé ces mesures peu après son retour au pouvoir, estimant que la régulation pouvait nuire à la compétitivité des États-Unis face à la Chine.
L’élément déclencheur immédiat cité par plusieurs médias américains est l’apparition de Mythos, un nouveau modèle conçu par la start-up Anthropic à San Francisco. L’entreprise affirme que cet outil est capable d’identifier des failles de sécurité logicielle à un niveau pouvant provoquer, selon ses termes, un tournant majeur en cybersécurité, et elle a refusé de le rendre public. Le directeur du CAISI, Chris Fall, a déclaré mardi qu’une évaluation indépendante et rigoureuse reste essentielle pour comprendre l’IA de pointe et ses implications pour la sécurité nationale. Des médias américains ajoutent que la National Security Agency a déjà obtenu un accès à Mythos et mène actuellement des tests.


