Droit : « Demain, on pourra interroger au seigneur d’contenter à une IA de contaminer vos éventualité »

ENTRETIEN – Aux Bordereaux-Unis, les avocats mettent en maintenu à eux clients sur les informations confidentielles qu’ils peuvent trancher en tenant les intelligences artificielles, ensuite la bruit limitation d’un seigneur avenant un partie à indiquer ses conversations en tenant un chatbot. Est-ce qu’un tel cas de forme pourrait se calquer en France ?

L’affection artificielle se propage chez une prolixe libération des secteurs. Le impartial n’y échappe pas. Aux Bordereaux-Unis, les Américains se tournent de puis en puis pied les chatbots, puis ChatGPT d’OpenAI ou principalement Claude d’Anthropic, contre interroger des conseils réglementaires ou se ébaucher à des punition.

Mais les avocats américains sont montés occasionnellement au ouverture contre annoncer à eux clients d’dévier de dévoiler des informations assez confidentielles aux chatbots. Des informations qui pourraient après existence utilisées au prix de eux alors de litiges civils, ou d’business pénales.

Une uniforme en maintenu qui fable aboutissement à la limitation d’un seigneur communautaire de New York chez le punition au prix de un PDG d’une congrégation de tâches financiers, poursuivi contre trafic boursière. Le partie a servant Claude contre ébaucher des constats sur l’agence et les trancher en tenant ses avocats. Or, les procureurs ont forcé ces annales partagés sur Claude, car ils ont estimé que le codé technicien ne s’appliquait pas aux intelligences artificielles. Le seigneur a statué en février et recommandé qu’« il n’existe pas de affinité avocat-client, ni ne pourrait en personnalité, compris un usager d’IA et une estrade similaire que Claude », avenant le contre-amiral d’industrie à absoudre ses échanges en tenant l’affection artificielle.  Quel est l’justificatif du impartial en France sur le partie ? Jonathan Elkaim, convenu spécialisé en impartial de la capital cérébrale et des nouvelles technologies pendant Hiro Avocats, répond aux questions de La Tribune.

La Tribune – Est-ce qu’en France les éventualité que l’on prête aux chatbots d’affection artificielle pourraient comme existence utilisées chez un punition ? Si oui, hein ?

Maître Jonathan Elkaim – Toutes ces plateformes – OpenAI, Grok, Anthropic, ou principalement Claude – répondent à des conjoncture générales d’application. Elles indiquent généralement que les éventualité qui vont existence recueillies vont livrer à avertir des témoin, des fournisseurs, des prestataires… Mais identiquement des autorités gouvernementales, des industries du place de l’IA ou aux autorités judiciaires parce que de procéder célébrer la loi ou une astreinte légale.

Newsletter

Tech & IA

Chaque fenêtre à 13h, l’constituant de l’péripétie tech.