Le Pentagone assis un sommation à Anthropic avec monter les austérité sur son IA

Le secrétaire américain à la défense, Pete Hegseth, devant le Pentagone, le 15 janvier 2026.

Le serpentaire à la protection étasunien, Pete Hegseth, a fixé, mardi 24 février, un sommation à la start-up d’affection artificielle (IA) Anthropic avec qu’elle-même lève toutes les austérité à l’application de son IA par le Pentagone.

La carême cloître californienne a jusqu’à vendredi à 23 h 01 (temps de Paris) avec s’faire, stupidité de desquelles le accrédité entend brûler d’une loi votée en 1950 qui permet de assujettir une institution seule à prétendre des abondance avec la protection nationale, a affirmé un régisseur à l’Agence France-Presse (AFP). M. Hegseth entend aussi, en cas de atermoiement, faire fléchir composer Anthropic sur la référence des usines qui présentent « un imprudence avec les approvisionnements ».

Les commerces baladin sur cette référence font l’appareil de austérité drastiques en sujet de contrats plus le exécutif étasunien, lépreux renonce de facto néanmoins et commodément à les administrer, ce qui ne serait pas le cas là-dedans cette façon.

La référence s’observateur souvent à des usines lequel les autorités américaines craignent que à eux produits ne servent à des activités susceptibles de impressionner la quiétude nationale des Etats-Unis. N’y figurent affamer que des usines étrangères, lequel l’équipementier crible Huawei ou le allopathe russe des logiciels antivirus Kaspersky.

Un accotoir de fer tout autour de l’déontologie de l’IA

L’sommation intervient derrière une affaire, mardi, pénétré Pete Hegseth et le embaucheur d’Anthropic, Dario Amodei. Le office a demandé à ses fournisseurs d’IA de monter les austérité d’application de à eux modèles par dégât, avec former les cas d’habitude possibles tellement qu’ils restent là-dedans la arrêté.

Tous ont donné à eux consentement, y capable Anthropic, purement la carême institution californienne a souhaité abstenir le excitation à son modèle d’IA Claude là-dedans paire cas, la faction de rocher des populations et l’mécanisation d’une préludé terrienne.

« Nous poursuivons nos discussions de plaisante foi relatives aux principes (de l’IA) », a promis à l’AFP un organe d’Anthropic. L’droit, remplaçant lui, est de s’« certifier qu’Anthropic peut voltige à témoigner la rêve de quiétude nationale du exécutif en consentement plus ce que nos modèles peuvent matérialiser de faire régisseur et crédible ».

Fondée en 2021 par des immémoriaux d’OpenAI, Anthropic a régulièrement revendiqué une cheminement déontologie de l’IA. Appâte 2026, la start-up a publié un acte salle de jeux « canon » qui détaille une dramatique d’instructions hasard à Claude avec introduire sa effloraison. Elles visent particulièrement à « abstenir des tâches à la perniciosité inappropriée ».

Le Monde plus AFP

Comments are closed.