Tech & AI
Trump bannit Anthropic du gouvernement — Ce que l'impasse sur la sécurité de l'IA signifie pour l'industrie
Le 27 février 2026, le président Trump a publié six mots qui ont divisé l'industrie de l'IA en deux : "Nous n'en avons pas besoin, nous n'en voulons pas." ( “We don’t need it, we don’t want it.” )
Le "en" désignait Anthropic — plus précisément Claude, le modèle d'IA qui était devenu le premier à opérer au sein des réseaux classifiés du Pentagone. En quelques heures, Trump a ordonné à chaque agence fédérale de cesser immédiatement d'utiliser la technologie d'Anthropic. Le secrétaire à la Défense, Pete Hegseth, a enchaîné en désignant Anthropic comme un "risque pour la chaîne d'approvisionnement" — un label normalement réservé aux entreprises liées à des adversaires étrangers comme Huawei.
Puis, moins de sept heures plus tard, le PDG d'OpenAI, Sam Altman, a posté sur X : "Nous avons conclu un accord avec le Département de la Guerre pour déployer nos modèles dans leur réseau classifié."
Le débat sur la sécurité de l'IA vient de passer du stade académique au stade géopolitique.
Ce qui s'est réellement passé
Le différend portait sur trois mots : toutes fins licites.
Le Pentagone exigeait qu'Anthropic accepte de laisser l'armée utiliser Claude pour n'importe quelle application légale, sans les restrictions prévues par les conditions d'utilisation de l'entreprise. Le PDG d'Anthropic, Dario Amodei, a tracé deux lignes rouges : Claude ne serait pas utilisé pour la surveillance domestique de masse des citoyens américains, ni pour alimenter des armes totalement autonomes — des systèmes capables de sélectionner et d'engager des cibles sans supervision humaine.
La position du Pentagone était directe : l'armée opère déjà sous ses propres lois et sa propre surveillance. Elle ne peut pas voir ses décisions critiques pour la mission contraintes par les conditions d'utilisation d'un fournisseur. "On ne peut pas mener des opérations tactiques par exception", a déclaré un responsable du Pentagone à CNN.
La position d'Anthropic était tout aussi claire : les modèles d'IA actuels ne sont pas assez fiables pour des décisions létales totalement autonomes, et la surveillance de masse des citoyens viole les droits fondamentaux. "Aucune intimidation ou punition de la part du Département de la Guerre ne changera notre position", a déclaré l'entreprise.
Après des semaines de négociations, une réunion à enjeux élevés entre Hegseth et Amodei au Pentagone, et un ultimatum fixé à 17h01, Anthropic a choisi de se retirer plutôt que de céder.
La contradiction OpenAI
C'est là que les choses deviennent intéressantes.
Sam Altman avait publiquement soutenu la position d'Anthropic plus tôt dans la journée, affirmant à son personnel qu'OpenAI partageait les mêmes "lignes rouges" sur la surveillance et les armes autonomes. Quelques heures plus tard, il annonçait qu'OpenAI avait signé l'accord avec le Pentagone.
Son message incluait un détail crucial : "Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse domestique et la responsabilité humaine pour l'usage de la force, y compris pour les systèmes d'armes autonomes. Le Département de la Guerre est d'accord avec ces principes, les reflète dans la loi et la politique, et nous les avons inscrits dans notre accord."
En d'autres termes, OpenAI a apparemment obtenu exactement les mêmes clauses de sécurité pour lesquelles Anthropic a été banni. Le Pentagone a accepté d'OpenAI ce qu'il a rejeté d'Anthropic.
Cela pourrait signifier plusieurs choses. Peut-être que le Pentagone n'a jamais été opposé aux principes — seulement à l'insistance d'Anthropic de les encoder dans les conditions d'utilisation plutôt que de s'appuyer sur la loi existante. Peut-être que la dynamique politique a changé une fois que Trump est intervenu personnellement. Ou peut-être que le résultat a toujours été une question de rapport de force, et non de politique.
Quelle que soit l'explication, l'image est frappante : une entreprise est restée ferme et a été mise sur liste noire. Sa rivale a exprimé sa solidarité, puis a signé le contrat.
Pourquoi cela compte au-delà de Washington
L'impact commercial immédiat pour Anthropic est gérable. Le contrat du Pentagone valait jusqu'à 200 millions de dollars — ce qui est significatif, mais pas existentiel pour une entreprise valorisée à 380 milliards de dollars avec 14 milliards de dollars de revenus annuels.
La désignation de "risque pour la chaîne d'approvisionnement" est la véritable arme. Cela signifie que toute entreprise faisant affaire avec l'armée américaine devra certifier qu'elle n'utilise pas Claude d'Anthropic dans ses travaux liés au Pentagone. Pour une entreprise dont la croissance dépend des contrats d'entreprise — dont beaucoup impliquent des firmes qui servent également le gouvernement — c'est une cascade potentielle de pertes de contrats.
Mais les implications plus larges vont bien au-delà du bilan comptable d'une entreprise.
Pour les entreprises d'IA, le message est clair : si vous voulez des contrats gouvernementaux, vous acceptez les conditions de "tout usage licite". Point final. Comme l'a souligné Adam Connor du Center for American Progress : "Cela envoie un message aux autres entreprises d'IA avec lesquelles ils négocient pour s'assurer qu'elles ne tentent pas de mettre des restrictions sur les utilisations de l'IA."
Pour le mouvement de la sécurité de l'IA, c'est un moment décisif. La question de savoir si les entreprises d'IA peuvent fixer des limites à la manière dont les gouvernements utilisent leur technologie vient de recevoir une réponse concrète — du moins de la part de cette administration. Le débat théorique sur l'alignement de l'IA et le déploiement responsable est désormais une négociation contractuelle avec un prix de 200 millions de dollars.
Pour les développeurs et les constructeurs, le paysage vient de changer. Si vous développez sur Claude pour des travaux proches du gouvernement, vous avez six mois pour migrer. Si vous choisissez un fournisseur d'IA pour des travaux d'entreprise susceptibles de toucher des contrats gouvernementaux, la désignation de risque pour la chaîne d'approvisionnement ajoute une nouvelle variable à la sélection des fournisseurs.
Le pari d'Anthropic
Anthropic ne recule pas. L'entreprise a déclaré qu'elle contesterait la désignation de risque pour la chaîne d'approvisionnement devant les tribunaux, la qualifiant de "juridiquement infondée". Amodei a souligné que la valorisation et les revenus d'Anthropic n'ont fait que croître depuis le début de l'impasse.
Il y a une logique stratégique ici. Anthropic parie qu'être l'entreprise qui a dit non à l'utilisation militaire incontrôlée de l'IA est un meilleur positionnement que d'être celle qui a dit oui. Dans un marché où la confiance, les références en matière de sécurité et l'alignement réglementaire comptent de plus en plus — particulièrement en Europe et parmi les clients entreprises soucieux d'une IA responsable — la position d'Anthropic pourrait devenir un avantage concurrentiel.
Des centaines d'employés de Google et d'OpenAI ont signé des pétitions soutenant Anthropic. Plusieurs anciens responsables du Pentagone ont qualifié l'approche de l'administration d'"extrêmement fragile". L'introduction en bourse prévue de la société pourrait même bénéficier de ce récit de résistance de principe.
Ou cela pourrait se retourner contre elle de manière spectaculaire si la désignation de risque persiste et que les clients entreprises commencent à partir.
La question fondamentale
Si l'on écarte la politique, les personnalités et les spécificités contractuelles, il reste une question autour de laquelle l'industrie de l'IA tourne depuis des années :
Qui décide de ce que l'IA peut ou ne peut pas faire — les entreprises qui la construisent, ou les gouvernements qui l'achètent ?
Pour l'instant, le gouvernement américain a donné sa réponse. Que cette réponse tienne — à travers les contestations judiciaires, les changements d'administration et l'évolution inévitable des capacités de l'IA — est l'histoire qui définira cette industrie pour la prochaine décennie.
Une chose est certaine : l'ère des entreprises d'IA négociant discrètement les conditions de sécurité à huis clos est terminée. L'interdiction d'Anthropic a rendu cela public, politique et personnel. Chaque entreprise d'IA sait désormais ce qui est en jeu quand le gouvernement appelle — et ce qu'il en coûte de dire non.
Keep Reading
NVIDIA GTC 2026 : L'industrie de l'IA vient de passer de l'entraînement à l'action
March 16, 2026 at 6:30 AM
Hong Kong vient d'investir 500 millions de HK$ dans l'IA à l'école — Voici ce dont personne ne parle
March 14, 2026 at 5:10 AM
La FDA contre la pilule Ozempic à 49 $ : comment la guerre des préparations magistrales de GLP-1 est devenue personnelle
March 11, 2026 at 2:13 AM
Figma vs Penpot en 2026 : Le challenger Open-Source peut-il remplacer votre outil de design à 55 $/siège ?
March 9, 2026 at 4:30 PM
Comment repérer une tendance à 10 millions de dollars 6 mois avant vos concurrents
March 9, 2026 at 7:00 AM