L’IA Claude a sélectionné plus de 1 000 cibles dans la guerre américano-israélienne contre l’Iran

Une colonne de fumée s'élève après une frappe à Téhéran, en Iran, le lundi 2 mars 2026. [AP Photo/Mohsen Ganji]

Le système d’intelligence artificielle Claude de la firme Anthropic — intégré au « Maven Smart System » de Palantir sur des réseaux militaires classifiés — est utilisé par l’armée américaine pour identifier et hiérarchiser les cibles dans la guerre d’agression criminelle contre l’Iran lancée par les États-Unis et Israël le 28 février.

Le Washington Post a rapporté mardi que Claude avait généré environ 1 000 cibles prioritaires pour la seule première journée d’opérations, synthétisant en temps réel l’imagerie satellite, le renseignement d’origine électromagnétique et les flux de surveillance pour produire des listes de cibles avec des coordonnées GPS précises, des recommandations d’armement et des justifications juridiques automatisées pour les frappes.

Il s’agit du premier déploiement à grande échelle de l’IA générative dans des opérations de combat actives des États-Unis. Elle est utilisée pour mener une guerre qui a déjà tué 787 Iraniens, selon Amnesty International, dont environ 150 écoliers lors d’une frappe de missile sur une école de la ville de Minab, dans le sud du pays, le 1er mars, ce que l’UNESCO a qualifié de «grave violation du droit humanitaire».

Comme le World Socialist Web Site l’a précédemment rapporté, l’administration Trump a placé Anthropic sur liste noire la semaine dernière et l’a désignée comme un « risque pour la sécurité nationale au niveau de la chaîne d’approvisionnement» après que le PDG Dario Amodei eut refusé les exigences du Pentagone d’un accès illimité à Claude; la firme insiste sur deux restrictions contractuelles étroites contre la surveillance de masse domestique des Américains et l’utilisation d’armes totalement autonomes.

Le 28 février, quelques heures seulement avant le début de la guerre contre l’Iran, Trump a signé un décret ordonnant aux agences de supprimer progressivement Claude, donnant aux militaires six mois pour mener à bien la transition. Cela rend tout le spectacle de la mise sur liste noire fonctionnellement vide de sens. Tandis que Trump punit publiquement Anthropic pour avoir maintenu deux restrictions techniques réduites, la même administration utilise la technologie d’Anthropic pour sélectionner des cibles dans une guerre illégale. Comme l’a déclaré une source militaire au Washington Post: « Nous ne laisserons pas les prises de décision [d’Amodei] coûter une seule vie américaine.»

Amodei ne s’est pas opposé publiquement à l’utilisation de Claude dans la guerre contre l’Iran. Son silence est révélateur mais peu surprenant. Ses «lignes rouges» déclarées contre la surveillance intérieure et les armes totalement autonomes n’ont jamais visé les fonctions que Claude remplit réellement en Iran: identification des cibles, évaluation du renseignement, sélection des armes et simulation de bataille. Ces opérations tombent entièrement en dehors de ses restrictions déclarées.

Amodei lui-même a déclaré dans un communiqué public la semaine dernière: « Nous n’avons jamais soulevé d’objections à des opérations militaires particulières», confirmant qu’Anthropic n’avait pas non plus soulevé d’objection à l’assaut du 3 janvier contre Caracas, au Venezuela, qui a tué entre 83 et 100 personnes.

La chaîne de létalité de l'IA militaire

Le déploiement de Claude en Iran est le produit d’un appareil massif d’IA militaire construit au fil des ans avec un soutien bipartite. Le projet Maven — le programme phare de guerre par IA du Pentagone, désormais exploité par Palantir dans le cadre d’un contrat qui a atteint près de 1,3 milliard de dollars — sert plus de 25 000 utilisateurs dans chaque commandement de combat des États-Unis. Anthropic a elle-même placé Claude sur ces réseaux classifiés par le biais de son partenariat de novembre 2024 avec Palantir et Amazon Web Services, suivi du lancement de «Claude Gov» pour les agences de sécurité nationale en juin 2025. L’entreprise a poursuivi agressivement l’intégration militaire. Elle ne peut plus aujourd’hui prétendre de manière plausible être surprise que sa technologie soit utilisée précisément pour faire ce pour quoi les systèmes d’IA militaires sont conçus.

Le modèle du meurtre de masse assisté par l’IA a été établi à Gaza. Comme l’a documenté le magazine 972, le système d’IA israélien « Lavender » a désigné quelque 37 000 Palestiniens à assassiner. Le passage systématique de la sélection humaine des cibles à la génération algorithmique des cibles avec une validation humaine de pure forme est désormais déployé à grande échelle contre l’Iran, Claude générant quotidiennement des centaines de cibles par IA. Comme l’a observé The New Republic: « Le contrôle humain significatif devient une fiction bureaucratique plutôt qu’une véritable sauvegarde lorsque des centaines de cibles générées par IA sont traitées quotidiennement avec une vérification inconsistante entre les unités militaires.»

La «Stratégie d’intelligence artificielle pour le Département de la Guerre » du 9 janvier du secrétaire à la Défense Pete Hegseth a rendu cette évolution explicite, engageant le Pentagone à devenir une «force de combat axée prioritairement sur l’IA » (AI-first warfighting force), exigeant que les modèles d’IA de pointe soient déployés auprès des soldats dans les 30 jours suivant leur sortie publique et ordonnant des démonstrations d’essaims de drones autonomes et de gestion de bataille par l’IA plus tard cette année. La guerre en Iran est le premier test majeur de cette doctrine.

Quelques heures après la mise sur liste noire d’Anthropic, le PDG d’OpenAI, Sam Altman, a annoncé un accord élargi pour déployer ChatGPT sur les réseaux classifiés du Pentagone. Les termes du contrat stipulent: «Le Département de la Guerre peut utiliser le système d’IA à toutes fins licites», précisément la formulation qu’Anthropic avait refusé d’accepter.

Altman a déclaré au personnel d’OpenAI lors d’une réunion interne: « Vous n’avez pas à prendre de décisions opérationnelles», informant ses propres employés qu’OpenAI n’a pas voix au chapitre sur la manière dont le Pentagone utilise sa technologie. Il a admis plus tard à CNBC que l’accord «semblait opportuniste et bâclé».

Même les « garde-fous » nominaux d’OpenAI — l’interdiction de la « surveillance sans contrainte des informations privées des personnes américaines» et des armes autonomes — sont criblés d’échappatoires. Le mot «sans contrainte» signifie que n’importe quelle limitation, aussi minimale soit-elle, satisfait à l’interdiction. Le terme «informations privées» n’est pas défini; l'Agence de renseignement de la défense (Defense Intelligence Agency) et l'Agence nationale de sécurité (National Security Agency) achètent déjà en masse des données de localisation et de navigation auprès de courtiers commerciaux sans mandat.

Katrina Mulligan, d’OpenAI, a elle-même reconnu l’évidence: «Nous ne pouvons pas nous protéger contre une agence gouvernementale achetant des ensembles de données disponibles commercialement.» Ce ne sont pas là des garde-fous. Ce sont des instruments de relations publiques conçus pour donner l’apparence de contraintes éthiques tout en accordant aux militaires un accès fonctionnellement illimité.

La nécessité d’organiser l’opposition au militarisme de l’IA

La réponse du public à ces développements reflète une véritable hostilité populaire à l’utilisation de l’IA pour la surveillance de masse et le militarisme. Sur les réseaux sociaux, des milliers de commentaires ont salué Anthropic pour ne pas avoir complètement cédé au Pentagone et dénoncé OpenAI pour l’avoir fait. La lettre ouverte «We Will Not Be Divided» (Nous ne serons pas divisés), qui appelle OpenAI à défendre les mêmes dispositions qu’Anthropic, est passée d’environ 650 à près de 900 signataires chez OpenAI et Google. Depuis vendredi dernier, les désinstallations de ChatGPT ont bondi de 295 % en raison de la servilité éhontée d’OpenAI envers l’administration Trump, tandis que Claude passait de la 42e à la 1re place sur l’App Store d’Apple.

Mais cette opposition n’a pas pris la forme d’une action politique indépendante de la classe ouvrière. Aucune grève, protestation ou arrêt de travail n’a été signalé dans aucune entreprise d’IA. Les lettres ouvertes font appel aux dirigeants des trusts — les mêmes dirigeants qui ont signé des contrats militaires — pour qu’ils adoptent volontairement des restrictions. Le mouvement #QuitGPT canalise l’opposition vers des choix de consommation: changer d’application, annuler des abonnements, signer des pétitions.

Il existe une profonde opposition populaire à la guerre. Un sondage de l’université du Maryland a révélé que seulement 21 % des Américains sont favorables à l’attaque menée contre l’Iran, tandis que 49 % s’y opposent. Une enquête YouGov a enregistré un taux d’approbation de 34 %, le plus bas pour n’importe quelle action militaire américaine dans l’histoire moderne.

Il faut donner à cette opposition de masse une expression politique consciente. Elle ne trouvera pas de véhicule dans le Parti démocrate — qui s’est joint aux républicains pour adopter le budget de la défense de 901 milliards de dollars finançant ces opérations — ni dans le Parti républicain, ni dans les bureaucraties syndicales, ni dans les organisations de la pseudo-gauche qui fonctionnent comme des auxiliaires politiques des démocrates. Elle ne peut être organisée que comme un mouvement indépendant de la classe ouvrière internationale, luttant pour mettre fin à la guerre impérialiste, à la surveillance de masse et à la menace du fascisme.

L’intelligence artificielle est une technologie révolutionnaire qui a le potentiel de faire progresser la connaissance humaine, d’éliminer la pénibilité et d’élever le niveau matériel et culturel du monde entier. Sous le capitalisme, elle est transformée en instrument de tuerie de masse impérialiste, en outil pour la construction d’un État policier de surveillance et en mécanisme pour l’élimination massive d’emplois et la concentration accrue d’une richesse obscène. La réponse à cela est la construction d’un mouvement socialiste révolutionnaire de la classe ouvrière pour prendre le pouvoir politique et de placer cette technologie — ainsi que de l’ensemble des moyens de production — sous contrôle démocratique et la transformer en propriété publique.

Le World Socialist Web Site a développé «Socialism AI» — une application unique de l’intelligence artificielle pour l’éducation politique et la préparation de la classe ouvrière à ce combat. Les travailleurs de la technologie, qui sont confrontés quotidiennement à la transformation de leur travail en instruments de guerre et de répression, devraient utiliser Socialism AI, étudier l’histoire du trotskysme et de la Quatrième Internationale, et entreprendre la lutte pour la mobilisation politique indépendante de la classe ouvrière contre la guerre impérialiste et le système capitaliste qui la produit.

Loading