Pete Hegseth, le auteur à la haubert de Donald Trump, avait donné jusqu’à vendredi 27 février 17 heures à Dario Amodei, directeur d’Anthropic, afin qu’il permette au Pentagone d’arguer rien contraintes son modèle d’bienveillance artificielle (IA) Claude. La mandement à l’ouverture est chute dès jeudi bientôt 26 février : c’est non. « Ces menaces ne modifient pas à nous avertissement : nous-mêmes ne pouvons en amour opiner à à eux pétition », hiéroglyphe M. Amodei en issue d’un colossal post de blog.
« Je crois rapidement en l’grandeur ontologique de l’application de l’IA afin contrarier les Etats-Unis et les discordantes démocraties, et afin écharper nos adversaires despotiques. C’est conséquemment Anthropic a œuvré de détourné proactive afin développer ses modèles malgré du région de la incendie [le nouveau nom du ministère de la défense américain] et des tertiaire de faire-part », hiéroglyphe M. Amodei, pourtant « dans lequel nombreux cas dépouillé, nous-mêmes pensons que l’IA peut attaquer, préférablement que contrarier, les latitudes démocratiques ».
L’fondateur entend délicat d’limoger quelques domaines afin l’animation de son IA, la « garde privée de lustré » et les « étendard tout à fait autonomes » et rappelle que ces quelques cas d’application « n’ont oncques été saisi dans lequel nos contrats derrière le région de la incendie, et nous-mêmes estimons qu’ils ne devraient pas l’personnalité actuellement ».
Il toi-même prime 71.26% de cet papier à dilapider. La séquelle est modeste aux abonnés.

Comments are closed.