Le Pentagone classe Anthropic comme risque pour la chaîne d'approvisionnement — la société promet de contester en justice

AI Bot
Par AI Bot ·

Chargement du lecteur de synthèse vocale...

Le département américain de la Défense a officiellement désigné Anthropic, le créateur de Claude AI, comme risque pour la chaîne d'approvisionnement « avec effet immédiat ». Cette décision sans précédent fait d'Anthropic la première entreprise technologique américaine à recevoir cette classification — une étiquette historiquement réservée à des adversaires étrangers comme Huawei. Le PDG Dario Amodei a répondu que la société n'a « pas d'autre choix que de contester cette décision en justice ».

Ce qui s'est passé

Cette désignation intervient après des mois de négociations infructueuses entre le Pentagone et Anthropic sur les conditions régissant l'accès militaire à Claude. Le secrétaire à la Défense Pete Hegseth a annoncé que l'armée abandonnerait progressivement les produits d'Anthropic sur une période de six mois.

Au cœur du différend : Anthropic a insisté sur des garde-fous contractuels explicites interdisant à l'armée américaine d'utiliser Claude pour la surveillance de masse des citoyens américains ou pour alimenter des systèmes d'armes entièrement autonomes sans supervision humaine. Le Pentagone a rejeté ces conditions, arguant qu'il a besoin de pouvoir utiliser Claude pour « toutes les finalités légales » et que les usages auxquels Anthropic s'oppose sont déjà interdits par la législation en vigueur.

La contradiction iranienne

Dans une contradiction frappante, le département de la Défense continue d'utiliser Claude dans des opérations militaires actives en Iran, tout en désignant Anthropic comme risque pour la sécurité nationale. Le modèle d'IA est actuellement déployé sur les réseaux classifiés du Pentagone, ce qui le rend profondément intégré aux opérations en cours.

Ce paradoxe a attiré une attention considérable : la même technologie que le Pentagone considère comme une menace pour la chaîne d'approvisionnement alimente simultanément des éléments d'une campagne militaire active.

Répercussions sur l'industrie

La désignation a des répercussions immédiates dans tout l'écosystème technologique de la défense. Des entreprises du secteur de la défense auraient déjà commencé à abandonner Claude à la suite de cette mise sur liste noire. Les sous-traitants militaires sont désormais interdits d'utiliser Claude dans le cadre de contrats directs avec le département de la Défense.

Pendant ce temps, OpenAI a rapidement saisi l'opportunité, décrochant des contrats avec le Pentagone qu'Anthropic ne peut plus honorer. La dynamique concurrentielle s'est intensifiée, OpenAI ayant lancé GPT-5.4 — son modèle le plus performant à ce jour — un jour seulement avant l'annonce officielle du Pentagone.

La stratégie juridique d'Anthropic

Anthropic prévoit de contester la désignation devant un tribunal fédéral, probablement à Washington. Cependant, les experts juridiques soulignent que la législation qui sous-tend cette décision accorde au Pentagone un large pouvoir discrétionnaire en matière de sécurité nationale, ce qui rend le recours difficile.

Amodei a fait valoir que la lettre du Pentagone est plus restrictive qu'il n'y paraissait initialement, déclarant que les sous-traitants militaires sont uniquement interdits d'utiliser Claude « dans le cadre direct de contrats avec le département de la Guerre, et non pour toute utilisation de Claude par des clients détenant de tels contrats ».

Ce que cela signifie pour l'industrie de l'IA

Cette confrontation crée un précédent crucial pour la relation entre les entreprises d'IA et le pouvoir gouvernemental. Elle soulève des questions fondamentales :

  • Les entreprises d'IA peuvent-elles fixer des limites éthiques sur la façon dont leurs technologies sont utilisées par les gouvernements ?
  • Les laboratoires d'IA axés sur la sécurité seront-ils pénalisés pour avoir refusé de céder le contrôle de leurs modèles ?
  • La désignation de risque pour la chaîne d'approvisionnement crée-t-elle un effet dissuasif sur les autres entreprises d'IA envisageant des garde-fous similaires ?

Avec un chiffre d'affaires annualisé approchant les 20 milliards de dollars et une récente levée de fonds de 30 milliards de dollars en Série G, Anthropic dispose des ressources nécessaires pour un combat juridique prolongé. Mais l'issue pourrait redéfinir la manière dont chaque entreprise d'IA gère ses contrats gouvernementaux à l'avenir.

Et maintenant ?

Anthropic devrait déposer son recours juridique dans les semaines à venir. En attendant, la société continue de fonctionner commercialement, la désignation affectant principalement les contrats liés à la défense. La situation reste fluide, des rapports suggérant que des négociations en coulisses entre Amodei et les responsables du Pentagone se poursuivent, même si les deux parties se préparent à une bataille judiciaire.


Source : TechCrunch


Discutez de votre projet avec nous

Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.

Trouvons les meilleures solutions pour vos besoins.