Anthropic face à Trump : la nouvelle bataille autour de l’IA. Ce dossier intéresse beaucoup les firmes de défense israéliennes qui sont actives aux Etats-Unis.
Le ministère de la Défense a placé l’entreprise sur sa liste d’acteurs présentant un « risque pour la sécurité nationale ». En cause : son refus d’autoriser l’usage de son IA pour la surveillance de masse ou l’automatisation d’attaques mortelles. La start-up a assigné l’administration Trump jugeant la mesure excessive.
La société Anthropic n’a jamais exprimé de refus de principe à collaborer avec les forces armées américaines. Au contraire, la société avait conclu à l’été 2025 un partenariat avec le département de la Défense destiné à mettre son modèle d’IA à disposition de l’administration américaine à des fins sécuritaires.
Ce contrat a conduit à la création d’un modèle spécifique baptisé « Claude Gov ». Des frictions se sont manifestées lorsqu’Anthropic a cherché à savoir si son modèle avait été utilisé lors de l’opération vénézuélienne ayant mené à la capture du président vénézuélien Nicolas Maduro et au décès de populations civiles.
La démarche a été perçue comme une ingérence par le Pentagone. Ainsi, Pete Hegseth, le secrétaire de la Défense, a exigé des sociétés coopérant avec l’administration qu’elles n’imposent aucune restriction dans l’utilisation de leur modèle d’intelligence artificielle pour les usages « licites ». C’est ici que la discorde intervient.
Le droit américain ne connaît pas de réglementation encadrant la conception et l’utilisation de l’IA à l’échelle fédérale. Au contraire, Donald Trump y est particulièrement hostile et avait abrogé les rares initiatives de son prédécesseur le jour même de son investiture. Il n’y a dès lors pas de garde-fou légal, notamment en matière de défense. Anthropic a alors opposé ses règles internes pour refuser de lever les restrictions de ses modèles d’IA comme l’y invitait l’exécutif.
Pourquoi Anthropic impose des limites à l’usage militaire de son IA Claude ?
En l’absence de régulation, Anthropic s’est imposé elle-même des contraintes. Dès 2023, la société s’est dotée d’une « constitution » déterminant les grands principes devant guider la conception et l’utilisation de son modèle de langage. Le document a été amendé au mois de janvier dernier et substantiellement enrichi. Ces instructions faisant office de charte contiennent notamment des développements consacrés aux « Hard constraints ».
Il s’agit de contraintes absolues qui désignent des actions pour lesquelles le modèle de langage ne devrait jamais être utilisé. Ces instructions sont intégrées à l’entraînement du modèle de manière à rendre leur contournement très difficile. Plusieurs restrictions sont énoncées (Claude’s Constitution, 21 janv. 2026, p. 46-47). Il s’agit des actions les plus graves : génération de contenu pédopornographique, aide à la création d’armes biologiques ou encore actions destinées à porter atteinte à des infrastructures critiques.
La politique d’Anthropic semble claire : « Ces interdictions constituent des restrictions absolues pour Claude : des lignes à ne jamais franchir, quels que soient le contexte ». C’est semble-t-il au nom de ces impératifs éthiques qu’Anthropic a opposé un refus unilatéral à l’administration américaine. Pourtant, d’un point de vue formel, le texte n’était pas applicable aux usages en cause. En effet, le préambule énonce explicitement que « Cette constitution est rédigée pour nos modèles Claude principaux et à accès général. Nous disposons de certains modèles conçus pour des usages spécialisés qui ne correspondent pas totalement à cette constitution ».
Anthropic a donc fondé son refus non pas sur les contraintes générales de la Constitution — formellement inapplicables à Claude Gov — mais sur les engagements spécifiques pris pour ce modèle.
Ces raisons ont été expliquées dans une déclaration officielle de Dario Amodei, le dirigeant d’Anthropic. Le communiqué rappelle que l’IA peut dans certains cas davantage porter atteinte aux valeurs démocratiques qu’elle ne peut les garantir. C’est dans ce texte qu’Anthropic a énoncé deux lignes rouges de l’entreprise, également applicables au Département de la Défense, à la différence de sa constitution interne.
La première ligne rouge consiste en la surveillance de masse. Le communiqué rappelle utilement qu’en l’état du droit positif américain, de telles pratiques ne sont pas encore interdites et atteste d’un retard de la réglementation sur les évolutions de l’IA, alors même que les risques pour les libertés individuelles sont majeurs. La seconde ligne rouge tient aux armes entièrement autonomes. Cette fois, l’opposition semble moins frontale. Anthropic affirme que de telles armes pourraient être déterminantes pour la sécurité nationale, mais qu’en l’état de la technique, les systèmes ne sont pas assez fiables pour être utilisés à cette fin.
La cohérence de la politique d’Anthropic peut par ailleurs être interrogée : en dépit des principes éthiques qu’elle s’impose spontanément, la société collabore depuis 2024 avec la société Palantir pour la conception du Maven Smart System, un programme d’IA fourni au Pentagone pour produire des cibles militaires, auquel est intégré Claude. Ces standards demeurent donc relatifs. Il n’en demeure pas moins qu’Anthropic est à ce jour la seule entreprise du secteur à avoir opposé un refus à l’administration américaine et à avoir assumé les conséquences de cette position.
Le gouvernement peut-il contraindre Anthropic à mettre à disposition ses modèles d’IA ?
Dans un premier temps, l’administration américaine a menacé de passer outre le refus de la société californienne et de lui imposer de mettre à disposition son modèle de langage pour les besoins liés aux activités militaires.
Il a ainsi été question de mobiliser le Defense Production Act. Cette loi adoptée en 1950, en pleine guerre de Corée, permet notamment à l’exécutif d’imposer des mesures de réquisition aux sociétés privées pour satisfaire les besoins de la défense nationale. Depuis, elle a été utilisée dans d’autres contextes, par exemple pour répondre aux besoins sanitaires pendant l’épidémie de Covid-19 en 2020. Le Président américain semble avoir renoncé à la contrainte en raison des très sérieux doutes juridiques qu’une telle utilisation suscitait et a préféré opter pour une stratégie de représailles en interdisant l’utilisation par l’administration des systèmes conçus par Anthropic.
La démarche a été confirmée par le secrétaire de la Défense sur le réseau social X le 27 février dernier. Il y annonce désigner Anthropic comme « Supply-Chain Risk to National Security », impliquant ainsi qu’aucun fournisseur ou partenaire traitant avec l’armée des États-Unis ne pourra mener d’activité commerciale avec l’entreprise à l’issue d’un délai de transition de six mois.
Une telle initiative est permise par la loi 10 U.S.C. § 3252 (Requirements for information relating to supply chain risk). Cette mesure concerne essentiellement des sociétés étrangères, comme la société russe Kaspersky ou la société chinoise Huawei, et n’avait jamais été dirigée contre une société américaine. À première vue, le texte ne semble pas avoir été pensé pour répondre aux situations telles que celle qui oppose Anthropic à l’administration américaine. On le comprend notamment à la lecture de la définition de « risque dans la chaîne d’approvisionnement » qui conditionne l’adoption des mesures envisagées. Cette qualification désigne en effet « le risque qu’un adversaire puisse saboter, introduire malicieusement une fonction indésirable ou subvertir de toute autre manière (…) un système couvert afin de surveiller, nier, perturber ou dégrader de toute autre manière la fonction, l’utilisation ou le fonctionnement de ce système » (Art. 4, d, traduction personnelle). On comprend dès lors que la réponse de l’administration américaine semble bien excessive au regard des timides restrictions qu’Anthropic entend mettre en œuvre. Pour ces raisons, la société a assigné plusieurs entités du gouvernement Trump devant un tribunal fédéral en Californie afin d’obtenir la levée de sanctions qu’elle juge excessives.