Charte IA
Dernière mise à jour : 4 mai 2026
Art. 1 — Objet et champ d'application
La présente Charte a pour objet d'encadrer l'utilisation des outils d'intelligence artificielle (IA) au sein du Cabinet Lexlau, dans le respect du secret professionnel, des règles déontologiques de la profession d'avocat, du Règlement (UE) 2016/679 (RGPD) et des exigences de qualité et de fiabilité des prestations attendues d'un avocat.
Elle s'applique à l'ensemble des membres du Cabinet : associés, avocats, collaborateurs, stagiaires, juristes, ainsi qu'à tout membre du personnel administratif ou de support. Chacun est tenu de respecter les dispositions de la présente Charte dans le cadre de ses fonctions et de ses activités au sein du Cabinet.
La présente Charte constitue un cadre de référence dont les dispositions peuvent être complétées ou précisées par des instructions internes spécifiques.
Art. 2 — Primauté du jugement professionnel de l'avocat
L'IA ne peut en aucun cas se substituer à l'expertise juridique et au jugement professionnel de l'avocat. L'avocat conserve en toutes circonstances la maîtrise des décisions et analyses juridiques.
Tout output produit par un outil d'IA doit faire l'objet d'une lecture critique, d'une vérification et d'une validation par le professionnel responsable du dossier avant toute utilisation ou transmission.
La responsabilité professionnelle de l'avocat demeure pleine et entière, indépendamment du recours à un outil d'IA. L'avocat demeure libre de ne pas suivre une suggestion de l'outil s'il l'estime inappropriée.
Art. 3 — Secret professionnel et confidentialité
Le respect du secret professionnel de l'avocat constitue une obligation déontologique absolue et non négociable. Aucune information confidentielle relative à un client, à un dossier, à une procédure en cours ou à une stratégie juridique ne peut être soumise à un outil d'IA ne garantissant pas un niveau de confidentialité et de sécurité adéquat.
Avant toute utilisation d'un outil d'IA avec des données relatives à un client, le membre du Cabinet doit vérifier : (a) que l'outil figure sur la liste des outils autorisés (article 4) ; (b) que les données transmises sont strictement limitées au nécessaire (principe de minimisation) ; (c) que l'outil n'utilise pas les données soumises à des fins d'entraînement de ses modèles.
En cas de doute sur le niveau de confidentialité d'un outil, son utilisation avec des données client est prohibée.
Art. 4 — Outils d'IA autorisés et interdits
Le Cabinet autorise l'utilisation d'outils d'IA qui satisfont, notamment, aux critères suivants : garanties suffisantes en matière de sécurité des données et engagement contractuel de non-exploitation des données soumises à des fins d'entraînement ; conformité avec le droit applicable en matière de protection des données (RGPD pour les outils traitant des données de résidents européens) ; politique de confidentialité transparente et auditable.
Sont expressément interdits : la soumission de données personnelles identifiantes de clients à des outils d'IA grand public ne garantissant pas la confidentialité des données (tels que les versions non-professionnelles de chatbots grand public) ; l'utilisation d'un outil d'IA pour produire directement un avis juridique, un acte de procédure ou un document contractuel destiné à un client sans vérification et validation humaine préalable ; toute utilisation contraire aux présentes dispositions ou aux instructions internes du Cabinet.
Art. 5 — Données personnelles et conformité RGPD
Toute utilisation de données personnelles dans un outil d'IA doit se faire en conformité avec le RGPD et les législations applicables en matière de protection des données. Cela implique notamment : l'identification d'une base légale appropriée pour le traitement des données du client ; le respect du principe de minimisation des données (ne transmettre que les données strictement nécessaires) ; l'obligation de transparence vis-à-vis du client sur les traitements réalisés à l'aide d'outils d'IA lorsque cela est requis par la loi ou les règles déontologiques.
L'interdiction de transférer des données vers des outils d'IA impliquant un transfert de données hors Espace Économique Européen sans garanties adéquates au sens des articles 44 à 49 du RGPD est absolue.
En cas de doute sur la conformité RGPD d'un outil, contacter le délégué à la protection des données du Cabinet avant utilisation.
Art. 6 — Fiabilité, vérification et hallucinations
Les modèles d'IA peuvent produire des réponses inexactes, dépassées, incomplètes ou inventées mais paraissant crédibles — ce phénomène est communément désigné sous le terme « hallucination ». Il est impératif que tout membre du Cabinet qui utilise un outil d'IA vérifie systématiquement et de manière critique : l'exactitude factuelle et juridique des informations générées (jurisprudence, textes législatifs, références bibliographiques) ; l'actualité des informations (vérifier que la législation ou jurisprudence citée est toujours en vigueur) ; la cohérence interne du raisonnement juridique proposé.
Aucune référence jurisprudentielle, législative ou doctrinale générée par IA ne peut être utilisée dans un document destiné à un client sans vérification préalable dans une source primaire officielle.
Art. 7 — Biais, déontologie et non-discrimination
Les outils d'IA sont entraînés sur de larges jeux de données pouvant contenir des biais. Les membres du Cabinet doivent exercer leur sens critique afin de prévenir toute dérive biaisée, discriminatoire ou contraire aux principes déontologiques dans les analyses, conseils ou documents produits avec l'assistance d'outils d'IA.
Tout output d'IA susceptible de contenir un biais manifeste — notamment en matière de genre, d'origine, de religion ou d'orientation sexuelle — doit être corrigé avant utilisation.
L'appartenance à une catégorie protégée par la loi ne peut constituer, directement ou indirectement, un critère d'analyse juridique assistée par IA.
Art. 8 — Transparence vis-à-vis du client
Le Cabinet s'engage à une politique de transparence raisonnable vis-à-vis de ses clients quant à l'usage d'outils d'IA dans le traitement de leurs dossiers. Lorsque les règles déontologiques ou la loi l'exigent, le client est informé de l'utilisation d'outils d'IA dans le cadre de sa représentation. Cette information est donnée de manière claire et compréhensible.
Le client a le droit de s'opposer à l'utilisation d'outils d'IA pour le traitement de données le concernant, dans les limites prévues par le RGPD et le droit applicable.
L'utilisation d'un outil d'IA ne décharge pas le Cabinet de son obligation de conseil personnalisé.
Art. 9 — Droits de propriété intellectuelle
Les membres du Cabinet doivent être vigilants quant aux risques d'atteinte aux droits de propriété intellectuelle de tiers lors de l'utilisation d'outils d'IA. Les données d'entraînement des modèles et les données soumises peuvent contenir du contenu protégé, de sorte que l'output généré peut constituer une reproduction ou une adaptation d'un tel contenu, susceptible d'être soumise à l'autorisation du titulaire des droits.
Avant d'intégrer un output d'IA dans un document destiné à un client ou à une publication, le membre du Cabinet vérifie l'absence d'emprunts non autorisés à des œuvres protégées.
Le Cabinet ne peut garantir l'originalité des contenus produits par des outils d'IA tiers.
Art. 10 — Traçabilité et transparence interne
L'utilisation d'outils d'IA dans le cadre d'un travail ou d'une analyse doit pouvoir être expliquée et tracée en interne. Lorsqu'un document, un avis ou un acte est rédigé ou assisté par un outil d'IA, cette circonstance est mentionnée dans le fichier interne du dossier concerné.
Cette traçabilité permet d'assurer la qualité et la cohérence des prestations, de faciliter les contrôles internes de qualité et de répondre, le cas échéant, aux exigences de contrôle de l'Ordre des barreaux.
Art. 11 — Formation et sensibilisation
Le Cabinet s'engage à sensibiliser et former régulièrement ses membres à l'utilisation responsable des outils d'IA. Cette formation couvre : la compréhension du fonctionnement des principaux modèles d'IA utilisés au sein du Cabinet ; les risques spécifiques liés à l'utilisation de l'IA dans un contexte juridique (confidentialité, hallucinations, biais) ; les bonnes pratiques de validation et de vérification des outputs ; les obligations légales et déontologiques applicables.
La participation aux formations organisées par le Cabinet sur ces thèmes est obligatoire pour les avocats, collaborateurs et stagiaires.
Art. 12 — Révision, incidents et signalement
La présente Charte est révisée au minimum une fois par an ou à chaque évolution législative, réglementaire ou déontologique significative affectant l'utilisation de l'IA dans le secteur juridique.
Tout incident impliquant un outil d'IA — notamment une fuite de données, un output manifestement erroné transmis à un client, ou une utilisation contraire à la présente Charte — doit être signalé sans délai au responsable de la gestion des incidents au sein du Cabinet.
La violation des dispositions de la présente Charte est susceptible d'engager la responsabilité professionnelle du membre concerné et de faire l'objet de mesures disciplinaires internes.
Pour toute question relative à la présente Charte IA : secretariat@lexlau.com
Des questions sur notre politique IA ?
Contactez-nous →