TechFlow rapporte, le 9 avril, qu’en vertu d’un article de CoinTelegraph, la Cour d’appel du district de Columbia aux États-Unis a rejeté la demande urgente déposée par la société d’intelligence artificielle Anthropic, confirmant ainsi la qualification par le Département de la Défense d’Anthropic comme « risque pour la chaîne d’approvisionnement en matière de sécurité nationale ». Trois juges ont estimé que l’intérêt du gouvernement à réguler les technologies d’intelligence artificielle en période de conflit militaire prévaut sur les pertes financières et réputationnelles potentielles subies par Anthropic. Cette désignation, qui n’avait jamais été appliquée auparavant à une entreprise américaine, empêchera les entrepreneurs du Pentagone d’utiliser les modèles Claude développés par Anthropic.
L’origine de ce litige remonte à un contrat signé entre les deux parties en juillet 2025 ; les négociations se sont toutefois rompues en février 2026 : le gouvernement exigeait qu’Anthropic autorise une utilisation militaire sans restriction de Claude, tandis qu’Anthropic s’y opposait fermement, refusant catégoriquement toute application de ses modèles à des armes autonomes létales ou à une surveillance de masse à l’intérieur du territoire national. Par la suite, Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement l’utilisation des produits d’Anthropic, et cette dernière a intenté une action en justice en mars. Actuellement, l’affaire suit simultanément deux voies juridiques distinctes : devant le tribunal de district californien et devant la cour d’appel du district de Columbia.




