Attention à l’fougue, la légende IA Claude Code Security ne va pas (davantage) substituer les antivirus

L’prédiction a débattu les marchés financiers. Anthropic, l’un des champions actuels de l’fraternité artificielle, a tondu « Claude Code Security », un dispositif d’récit de encyclopédie propulsé par ses propres technologies d’IA, censé pénétrer des failles de abri parmi l’attention que l’on développe par modèle, antérieurement son déploiement. La riposte de Wall Street a été immédiate.

Plusieurs géants de la cybersécurité ont payé ruineux l’prédiction bruit d’Anthropic : le collaboration CrowdStrike a gâché 8 %, Okta a chuté de principalement de 9 %, Cloudflare a esseulé de 8 %, et JFrog s’est abasourdi intimement de 25 % en une individuelle rassemblement. La déraison s’est emparée des investisseurs, convaincus qu’une IA allait donner périmé total un parage. La axiome est caractéristique principalement nuancée.

Le marché ne comprend invariablement pas la cyber

Contrairement aux outils d’récit stable traditionnels qui s’appuient couramment sur des vulnérabilités connues du package, le emploi du temps d’Anthropic raisonne de montage principalement globale. Il retrace les fréquence de moment à flanc des systèmes complexes, identifie des failles logiques subtiles et propose des correctifs ciblés quant à quelque tendreté détectée. Lors de ses tests internes, Anthropic fiancé entreprenant officiel principalement de 500 failles inconnues parmi des projets disponibles en origine béante et utilisés par des milliers d’industries depuis des années.