Exit Anthropic, le Pentagone choisit OpenAI

Le exemple d’OpenAI, Sam Altman, a annoncé vendredi 27 février un entente en compagnie de le pouvoir étasunien de la Blindage qui pourra administrer son modèle d’sympathie artificielle (IA) en compagnie de certaines “garanties”.

“Ce soir, nous avons conclu un accord avec le ministère de la Guerre afin de déployer nos modèles dans leur réseau classifié”, a épistolaire sur X le exemple d’OpenAI, Sam Altman, en employant le nom donné par l’chemin Trump à son pouvoir de la Blindage.

À dévisager de la sorteAnthropic parce que l’chemin Trump, un arbre de fer grave sur le appel à l’IA par l’matelassée

Selon Sam Altman, cet entente loyal “l’interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l’usage de la force, y compris pour les systèmes d’armes autonomes”, paradoxe totalement les mêmes paliers rouges que celles posées incessamment par Anthropic afin que le Pentagone puisse administrer ses modèles d’IA.

“Nous mettrons également en place des garanties techniques pour nous assurer que nos modèles se comportent comme ils le devraient, ce que le ministère de la Guerre souhaitait également”, a poursuivi le exemple d’OpenAI, auteur de ChatGPT.

Le patron d'OpenAI, Sam Altman, le 22 juillet 2025 à Washington
Le exemple d’OpenAI, Sam Altman, le 22 juillet 2025 à Washington © Mandel NGAN / AFP/Archives

Cette publication intervient un couple de heures postérieurement l’reçu donné par Donald Trump à son chemin de “cesser immédiatement toute utilisation” de l’IA d’Anthropic, Claude.

“Nous n’en avons pas besoin, nous n’en voulons pas, et nous ne travaillerons plus avec eux”, a tonné le directeur étasunien sur sa programme Truth Social.

“Leur égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale”, a au courant Donald Trump. “Les Etats-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres!”, a-t-il épistolaire en majuscules.

“Caprices idéologiques”

Le habile de la Blindage Pete Hegseth a, lui, au courant Anthropic de “trahison”, fustigé les “caprices idéologiques des géants de la tech” et déporté l’magasin de toute partenariat franche ou lointaine en compagnie de l’matelassée étasunienne.

Se disant “profondément attristée” par cette limitation, Anthropic a estimé parmi un récépissé que “cette désignation serait à la fois juridiquement infondée et créerait un précédent dangereux pour toute entreprise américaine négociant avec le gouvernement”. Elle a fiancé de distinguer la droiture.

Le patron d'Anthropic, Dario Amodei, le 23 janvier 2026 au forum de Davos, en Suisse
Le exemple d’Anthropic, Dario Amodei, le 23 janvier 2026 au concentration de Davos, en Suisse © FABRICE COFFRINI / AFP/Archives

“Aucune intimidation ni sanction de la part du ministère de la Guerre ne changera notre position”, a-t-elle davantage assis.

Anthropic avait refusé jeudi de rendre fou à un injonction de Pete Hegseth accaparant qu’miss accorde à l’matelassée étasunienne une emploi rien dérogation de Claude.

“Dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques, plutôt que les défendre”, avait sauvegardé son exemple Dario Amodei, qui avait signé en juin un commandite de 200 millions de dollars en compagnie de le pouvoir étasunien.

“Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques”, avait-il supplémentaire.

Le supérieur quadra insiste sur le document que les systèmes les alors avancés d’IA ne sont pas davantage fiables au lieu de à eux donner le emprise de inspecter des armoiries mortelles – et ainsi de assassiner – rien une vérification mortelle en inédit qualité.

Les armoiries totalement autonomes “doivent être déployées avec des garde-fous appropriés, qui n’existent pas aujourd’hui”, avait estimé Dario Amodei. “Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger.”

Fondée en 2021 par des ancestraux d’OpenAI, Anthropic a invariablement revendiqué une hall déontologie de l’IA.

Baptême 2026, la start-up a publié un écrit billard complexion qui détaille une dramatique d’instructions situation à Claude afin entourer sa confection. Elles visent surtout à “empêcher des actions à la dangerosité inappropriée”.

En annonçant l’entente d’OpenAI en compagnie de le Pentagone, Sam Altman a dit bien demandé au pouvoir “d’offrir ces mêmes conditions à toutes les entreprises d’IA”.

“Nous avons exprimé notre vif souhait de voir les choses s’apaiser, loin des actions juridiques et gouvernementales, pour aboutir à des accords raisonnables”, a-t-il épistolaire.

(AFP)

Comments are closed.