Recevez notre bulletin électronique offert.

Le Pentagone qualifie Anthropic de « risque pour la chaîne d'approvisionnement »

Le gouvernement américain a accusé la société d'intelligence artificielle Anthropic de mettre en danger les membres des forces armées en ajoutant ses propres restrictions à l'utilisation légale de son logiciel d'IA, Claude. Le gouvernement a qualifié Anthropic de risque pour la chaîne d'approvisionnement le 5 mars, une désignation normalement réservée aux entreprises provenant d'adversaires étrangers. L'étiquette interdit aux militaires et à ses nombreux entrepreneurs de faire des affaires avec la société. Cela fait suite à des informations selon lesquelles l'armée américaine a utilisé Claude AI pour capturer le président vénézuélien Nicolás Maduro et l'utilise actuellement pour l'analyse de renseignements et l'évaluation de cibles en Iran. L'armée a reçu l'ordre d'éliminer progressivement tout usage de l'IA Claude et de la remplacer par une ou plusieurs de ses concurrentes. Le différend met en évidence l'importance de l'intelligence artificielle et la confiance qu'elle suscite, malgré les inconnues et les risques, comme le souligne notre article, « Pourquoi nous devons développer l'IA (même si elle nous tue) ».