Les dangers de l'IA grand public pour les avocats : ce que vous risquez vraiment

Robot humanoïde assis sur un banc

Vous utilisez ChatGPT pour préparer vos dossiers clients ? Vous collez des pièces de procédure dans DeepSeek pour gagner du temps ? Voici ce que vous risquez concrètement. Cet article n'est pas un avertissement théorique. Chaque point est étayé par des incidents réels, des sanctions prononcées et des décisions de justice. En France, les premières sanctions sont déjà tombées.

Fuites de données : vos dossiers dans la nature

En bref : Samsung a subi trois fuites de données via ChatGPT en 2023. Les informations saisies dans les IA publiques peuvent être absorbées par le modèle.

Le scénario n'est pas hypothétique. En mars 2023, Samsung a subi trois incidents distincts où des ingénieurs ont collé du code source confidentiel et des comptes rendus de réunion internes directement dans ChatGPT. Résultat : des secrets industriels définitivement exposés, absorbés par le modèle d'OpenAI. Samsung a fini par interdire tout usage de l'outil en interne.

Ce n'est pas un cas isolé. Selon un rapport de 2026 sur le « Shadow AI », 77 % des employés collent des données d'entreprise dans des outils d'IA grand public, souvent sans en informer leur hiérarchie. La CISA (l'agence américaine de cybersécurité) a elle-même découvert qu'un de ses agents avait téléchargé des documents classifiés « For Official Use Only » dans ChatGPT.

Du côté de DeepSeek, c'est encore pire. Les chercheurs de Wiz ont découvert plus d'un million de lignes de données exposées publiquement : historiques de conversations, clés d'API codées en dur, journaux système. L'Italie a banni l'application, la Marine américaine l'a interdite à son personnel.

Même OpenAI n'est pas épargné. En novembre 2025, une fuite confirmée via un sous-traitant (Mixpanel) a exposé des données d'utilisateurs de ChatGPT. La confiance zéro, ce n'est pas un slogan : c'est la seule attitude raisonnable face à ces outils.

Rappel : OpenAI indique dans ses conditions d'utilisation que les données saisies dans ChatGPT (hors Enterprise) peuvent être utilisées pour entraîner ses modèles. Chaque requête contenant des informations client alimente potentiellement la base d'entraînement d'un modèle américain.

Hallucinations juridiques : quand l'IA invente la jurisprudence

En bref : Les LLMs grand public inventent des références jurisprudentielles crédibles mais inexistantes. Des avocats ont déjà été sanctionnés pour avoir cité ces faux arrêts.

C'est le risque le plus insidieux. Les modèles de langage généralistes ne « savent » rien : ils prédisent le mot suivant le plus probable. Quand on leur demande une référence jurisprudentielle, ils en inventent une qui ressemble à une vraie référence. Le format est parfait, le numéro de pourvoi est crédible, mais l'arrêt n'existe tout simplement pas.

Une étude de Stanford (2024) a démontré que les IA généralistes hallucinent dans une requête juridique sur trois. Au printemps 2025, plus de 300 cas documentés de citations fictives générées par l'IA avaient été recensés dans les tribunaux américains, soit deux à trois nouveaux cas par jour.

L'affaire fondatrice remonte à juin 2023 : dans Mata v. Avianca, un avocat new-yorkais a soumis un mémoire contenant six citations jurisprudentielles entièrement fabriquées par ChatGPT. Il a été sanctionné de 5 000 dollars d'amende. En septembre 2025, un avocat californien a écopé d'une amende historique de 10 000 dollars pour des citations fictives générées par IA.

Mais le plus alarmant pour les avocats français, ce sont les premières décisions françaises. En décembre 2025, le Tribunal judiciaire de Périgueux et le Tribunal judiciaire d'Orléans ont respectivement averti et sanctionné des avocats pour avoir soumis des citations jurisprudentielles fictives générées par intelligence artificielle. Le phénomène est détaillé par Village de la Justice et Doctrine. Le message est clair : les juridictions françaises ne tolèrent plus l'excuse de l'ignorance technologique.

Destruction du secret professionnel

En bref : En 2026, un tribunal américain a statué que les conversations avec une IA ne sont pas couvertes par le privilège avocat-client (US v. Heppner).

Voici le point que beaucoup d'avocats sous-estiment. En février 2026, dans l'affaire US v. Heppner, le juge Rakoff du tribunal fédéral de New York (SDNY) a statué que les conversations avec une IA ne sont pas couvertes par le privilège avocat-client. Le raisonnement est d'une logique implacable : utiliser une IA grand public revient à divulguer des informations à un tiers. Et toute divulgation à un tiers détruit le secret professionnel.

Concrètement, cela signifie que si vous collez le contenu d'un échange confidentiel avec votre client dans ChatGPT, cet échange perd potentiellement sa protection. La partie adverse pourrait invoquer la levée du secret pour accéder à ces informations.

En France, le Conseil National des Barreaux (CNB) a pris les devants en publiant sept obligations déontologiques pour l'usage de l'IA par les avocats. Parmi elles : l'obligation de confidentialité, l'obligation de vérification des résultats, et l'interdiction d'utiliser des outils qui transmettent des données client à des tiers non autorisés. Et pourtant, 81 % des avocats français utilisent déjà l'IA générative, la plupart sur des comptes personnels sans aucune garantie de confidentialité.

Attaques par injection de prompts

En bref : Des chercheurs ont démontré des attaques zero-click capables d'exfiltrer les données de ChatGPT sans aucune interaction de l'utilisateur (ZombieAgent, 2025).

Au-delà des fuites accidentelles, il y a les attaques délibérées. En septembre 2025, des chercheurs en sécurité ont démontré ZombieAgent, une attaque « zero-click » capable d'exfiltrer les données de ChatGPT caractère par caractère, sans aucune interaction de l'utilisateur. Il suffit que l'IA traite un document contenant des instructions cachées pour que vos données soient siphonées.

La fonctionnalité « mémoire » de ChatGPT, censée améliorer l'expérience utilisateur, décuple la surface d'attaque. Un document piégé peut implanter des instructions persistantes dans la mémoire de l'IA, qui seront exécutées lors de toutes les conversations futures. Imaginez : un adversaire vous envoie un PDF anodin, vous le faites analyser par ChatGPT, et dès lors, chaque conversation future avec l'IA est compromise.

La situation est devenue si critique qu'OpenAI a dû introduire un « Lockdown Mode » en février 2026, un mode renforcé pour les utilisateurs à risque élevé. L'existence même de ce mode est un aveu : l'outil standard n'est pas sûr pour les professions manipulant des données sensibles.

Amendes RGPD : l'Italie ouvre la voie

En bref : L'Italie a infligé 15 millions d'euros d'amende à OpenAI en décembre 2024 pour violation du RGPD, la première sanction visant une entreprise d'IA.

Le cadre réglementaire se durcit rapidement. En décembre 2024, l'Italie a infligé à OpenAI une amende de 15 millions d'euros pour violation du RGPD, la première sanction RGPD visant spécifiquement une entreprise d'IA. Motif : collecte et traitement illicites de données personnelles pour l'entraînement du modèle, absence de base légale, et défaut d'information des utilisateurs.

En France, la CNIL a prononcé 486,8 millions d'euros d'amendes en 2025, et son attention se tourne désormais vers les usages de l'IA. Un cabinet d'avocats qui utilise ChatGPT pour traiter des données personnelles de clients sans base légale adéquate s'expose directement à une procédure.

Avec l'entrée en application complète de l'IA Act en août 2026, les sanctions pourront atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial. Les systèmes d'IA utilisés dans le domaine juridique sont classés à « haut risque », avec des obligations renforcées de transparence, de traçabilité et de supervision humaine.

Checklist : 5 questions à poser avant de choisir un outil IA

En bref : Hébergement des données, entraînement du modèle, conformité RGPD, secret professionnel et traçabilité : cinq critères essentiels pour évaluer un outil IA juridique.

Ces risques ne signifient pas qu'il faut renoncer à l'IA. Ils signifient qu'il faut poser les bonnes questions avant de confier vos données à un outil. Voici les cinq critères essentiels à vérifier :

  1. Où sont hébergées mes données ? Exigez un hébergement en France ou en Europe, par un prestataire non soumis au Cloud Act. La localisation physique ne suffit pas : vérifiez la nationalité de l'opérateur.
  2. Mes données servent-elles à entraîner le modèle ? La plupart des IA grand public (ChatGPT, Gemini, DeepSeek) utilisent vos saisies pour s'améliorer. Un outil professionnel doit garantir contractuellement qu'il ne le fait pas.
  3. L'outil cite-t-il ses sources ? Une IA qui affirme sans sourcer est une IA qui peut halluciner sans être détectée. Exigez des références vérifiables pour chaque réponse juridique.
  4. Quelle est la politique de conservation des données ? Combien de temps vos requêtes sont-elles conservées ? Qui y a accès ? Pouvez-vous les supprimer à la demande ?
  5. L'outil est-il conforme au secret professionnel ? Vérifiez que l'éditeur a été conçu en tenant compte des obligations déontologiques des avocats (recommandations CNB), pas simplement adapté après coup.

L'IA grand public est un formidable outil de productivité personnelle. Mais pour un avocat, l'utiliser sur des données client, c'est jouer à la roulette russe avec son obligation de confidentialité, sa responsabilité professionnelle et la confiance de ses clients. Les sanctions sont réelles, les précédents sont posés, et l'ignorance n'est plus une excuse.

Sur le même sujet

Partager cet article

Envie d'aller plus loin ?

Découvrez comment une IA conçue pour les avocats peut répondre à ces critères de sécurité, de souveraineté et de fiabilité.

En savoir plus