spot_img

La Californie votera sur un projet de loi sur l’IA ciblant l’utilisation des outils d’IA par les avocats


6 minutes de lecture

Publié le 28 janvier 2026

Le SB 574 n’interdirait pas aux avocats d’utiliser l’IA, mais clarifierait que les obligations professionnelles existantes s’appliquent lorsque des outils d’IA générative sont utilisés dans la pratique juridique, en se concentrant sur quatre domaines clés :

Protéger la confidentialité des clients en interdisant aux avocats de saisir des informations confidentielles ou non publiques dans les systèmes publics d’IA. Exiger des avocats qu’ils vérifient l’exactitude du contenu généré par l’IA, corrigent les résultats hallucinés ou erronés et restent responsables du travail produit avec l’IA ou par d’autres en leur nom. Prévenir les résultats discriminatoires ou biaisés résultant de l’utilisation de l’IA qui pourraient avoir un impact illégal sur les groupes protégés. Exiger des avocats qu’ils examinent si la divulgation est appropriée lorsque l’IA est utilisée pour créer du contenu destiné au public. Le projet de loi reflète une préoccupation croissante à l’échelle nationale concernant les risques de l’IA à usage général dans le travail juridique et souligne la nécessité d’outils d’IA vérifiés, confidentiels et bien gouvernés et de politiques à l’échelle de l’entreprise pour soutenir une adoption responsable.

Le Sénat de Californie devrait voter cette semaine sur BS 574une législation qui transformerait les directives existantes du barreau sur l’IA en exigences légales exécutoires. Le projet de loi reflète une prise de conscience croissante parmi les législateurs que l’adoption rapide de l’IA générative, en particulier des outils à usage général, présente des risques distincts dans les professions réglementées telles que le droit.

Si le SB 574 est adopté, les avocats pourraient être sanctionnés pour avoir cité des cas hallucinés par l’IA ou pour avoir mal géré les informations de leurs clients via des systèmes publics d’IA.

Le projet de loi, présenté par le sénateur d’État Tom Umberg, répond à une préoccupation nationale : les avocats soumettent des documents judiciaires contenant des citations de cas fictives générées par des outils d’IA à usage général, qui manquent de flux de travail intégrés de vérification et de vérification des citations. Selon un Analyse de la loi Bloombergces erreurs de citation générées par l’IA apparaissent de plus en plus fréquemment dans les dossiers judiciaires à travers le pays.

Si le Sénat approuve le SB 574 cette semaine, il passerait aux commissions de l’Assemblée pour des auditions et un éventuel vote avant l’ajournement des législateurs fin août. Voici ce que vous devez savoir.

Ce qu’exige le SB 574 : quatre considérations pour les avocats utilisant l’IA

Le projet de loi n’interdit pas l’utilisation de l’IA dans la pratique juridique. Au lieu de cela, il précise que les obligations professionnelles existantes (confidentialité, compétence, exactitude et équité) s’appliquent toujours lors de l’utilisation d’outils d’IA.

Le projet de loi définit l’intelligence artificielle générative comme un « système d’intelligence artificielle capable de générer un contenu synthétique dérivé, notamment du texte, des images, des vidéos et de l’audio qui émule la structure et les caractéristiques des données de formation du système ».

1. Confidentialité client et IA

Le SB 574 interdirait aux avocats de saisir des informations confidentielles, d’identification personnelle ou non publiques dans les systèmes publics d’IA.

Ce que dit le projet de loi : Les avocats doivent s’assurer que « les informations confidentielles, d’identification personnelle ou autres informations non publiques ne sont pas saisies dans un système public d’intelligence artificielle générative ».

Le projet de loi ne définit pas ce que sont les « systèmes publics d’IA générative », mais il définit les informations d’identification personnelle comme incluant :

Numéros de permis de conduire.
Dates de naissance.
Numéros de sécurité sociale.
Numéros nationaux d’information sur la criminalité et d’identification criminelle.
Adresses et numéros de téléphone des parties, des victimes, des témoins et du personnel judiciaire.
Informations médicales ou psychiatriques.
Informations financières.
Numéros de compte.
Tout autre contenu scellé par ordonnance du tribunal ou jugé confidentiel par une décision ou un statut du tribunal.

En pratique, cela signifie que les avocats ne peuvent pas copier-coller les e-mails des clients, les faits relatifs au dossier ou les documents d’enquête sur des plateformes publiques d’IA qui ne prennent pas en charge le secret professionnel de l’avocat.

2. Vérification des citations par l’IA

Le projet de loi oblige les avocats à vérifier et corriger le contenu généré par l’IA avant de l’utiliser.

Ce que dit le projet de loi : Les avocats doivent prendre des mesures raisonnables pour :

« Vérifier l’exactitude du matériel d’intelligence artificielle générative, y compris tout matériel préparé en leur nom par des tiers. »
« Corrigez toute sortie erronée ou hallucinée dans tout matériel utilisé par l’avocat. »
« Supprimez tout contenu biaisé, offensant ou préjudiciable dans tout matériel d’intelligence artificielle générative utilisé, y compris tout matériel préparé en leur nom par des tiers. »

Cela signifie que les avocats doivent vérifier l’exactitude des faits, identifier les hallucinations, maintenir un contrôle qualité sur tout le travail généré par l’IA et supprimer le contenu problématique, y compris le travail effectué par d’autres en leur nom. AI peut aider au travail, mais la responsabilité reste celle de l’avocat.

3. Prévenir les biais liés à l’IA dans la pratique juridique

Le projet de loi exige que l’utilisation de l’IA ne puisse entraîner aucune discrimination à l’encontre des groupes protégés.

Ce que dit le projet de loi : Veiller à ce que « l’utilisation de l’intelligence artificielle générative ne discrimine pas illégalement ou n’ait pas d’impact disparate sur les individus ou les communautés en fonction de l’âge, de l’ascendance, de la couleur, de l’origine ethnique, du sexe, de l’expression de genre, de l’identité de genre, des informations génétiques, de l’état civil, de l’état de santé, du statut militaire ou d’ancien combattant, de l’origine nationale, du handicap physique ou mental, de l’affiliation politique, de la race, de la religion, du sexe, de l’orientation sexuelle, du statut socio-économique et de toute autre classification protégée par la loi fédérale ou étatique. »

Cette disposition répond aux préoccupations selon lesquelles les systèmes d’IA peuvent perpétuer les biais de leurs données de formation sous-jacentes. En vertu du SB 574, les avocats pourraient être tenus responsables s’ils utilisent l’IA connue pour produire des résultats discriminatoires.

4. Considérations sur la divulgation de l’IA

Les avocats doivent réfléchir à l’opportunité de divulguer l’utilisation de l’IA lors de la création de contenu destiné au public. Bien que la divulgation ne soit pas obligatoire dans toutes les circonstances, les entreprises peuvent souhaiter élaborer des politiques claires sur le moment et la manière d’informer le public sur le contenu généré par l’IA.

Ce que dit le projet de loi : « L’avocat réfléchit à l’opportunité de divulguer l’utilisation de l’intelligence artificielle générative si elle est utilisée pour créer du contenu fourni au public. »

Pourquoi le projet de loi californien sur l’IA est important pour les avocats du pays

La Californie n’est pas la seule à lutter contre le rôle de l’IA dans la pratique juridique. Le projet de loi reconnaît ce que de nombreux membres de la profession savent déjà : tous les outils d’IA ne sont pas adaptés à la pratique du droit. Le Barreau de Californie a déjà émis conseils sur l’utilisation de l’IAmais le SB 574 codifierait ces principes dans une loi exécutoire, passant de « devrait » à « doit ».

D’autres États devraient emboîter le pas. Le Rapport sur les tendances juridiques 2025 a constaté que 79 % des professionnels du droit utilisent l’IA, et près de la moitié d’entre eux utilisent des outils d’IA génériques tels que ChatGPT, Gemini et Claude. À mesure que son adoption se développe, le besoin de garde-fous pratiques qui aident les entreprises à utiliser l’IA sans compromettre leurs responsabilités professionnelles pour protéger à la fois les avocats et les clients augmente également.

Comment utiliser l’IA de manière responsable dans la pratique juridique

Pour de nombreuses entreprises, la question est désormais de savoir à quoi ressemble réellement une utilisation responsable de l’IA au quotidien et comment faire des choix intentionnels quant à l’endroit et à la manière dont l’IA s’intègre dans leur travail juridique.

Si vous évaluez votre configuration actuelle d’IA ou envisagez d’ajouter de nouveaux outils, les considérations suivantes peuvent vous aider à orienter une adoption plus sûre et plus pratique, quelle que soit la manière dont le vote du Sénat sur le SB 574 se déroulera finalement.

Utiliser une IA juridique fondée sur la loi

Les outils d’IA à usage général, bien qu’utiles pour le brainstorming ou la recherche générale, génèrent des réponses basées sur des modèles dans leurs données de formation, et non sur des sources légales vérifiées. C’est pourquoi des cas hallucinés apparaissent dans les dossiers judiciaires. L’IA ne sait pas qu’elle invente des citations car elle ne vérifie pas réellement la jurisprudence.

Plateformes d’IA juridique telles que Clio Travail sont construits sur des fondations différentes. Ils s’appuient sur des bases de données juridiques authentifiées, avec accès au droit primaire et secondaire des juridictions concernées. Cela réduit considérablement le risque d’hallucinations et donne des résultats plus faciles à vérifier et à faire confiance. Les avocats peuvent mener des recherches plus efficacement et obtenir des résultats auxquels ils peuvent avoir confiance.

Choisissez des outils d’IA qui prennent en charge la surveillance professionnelle

Pour satisfaire aux obligations de vérification, les avocats doivent disposer des moyens d’examiner et de confirmer le travail généré par l’IA. Avec l’IA à usage général, la vérification signifie souvent d’abord déterminer si une citation ou une déclaration est réelle, retraçant les sources à partir de zéro et démêlant les hallucinations potentielles. Ce processus prend du temps et augmente le risque d’erreurs.

L’IA conçue pour les flux de travail juridiques réduit cet écart. En fournissant un accès direct aux documents sources vérifiés et en permettant une comparaison côte à côte, l’IA juridique fait passer la vérification d’une simple recherche de sources manquantes à un examen simple, facilitant ainsi le respect des exigences de surveillance sans ralentir le travail juridique.

Protégez les informations des clients avec une IA conçue pour la confidentialité

Les outils d’IA grand public, en particulier les versions gratuites ou accessibles au public, fonctionnent selon des conditions de service standard. Souvent, cela signifie que les données confidentielles de vos clients seront utilisées pour améliorer ces modèles, car il n’existe aucune garantie contractuelle stipulant que les informations client sont exemptées. En fin de compte, ces plates-formes n’ont pas été conçues pour le secret professionnel de l’avocat, car elles n’ont pas été conçues en premier lieu pour les avocats.

Au lieu de cela, les entreprises devraient rechercher des plates-formes d’IA offrant des garanties contractuelles selon lesquelles les données ne seront pas conservées ou utilisées pour former des modèles, un chiffrement au repos et en transit, des certifications de sécurité SOC 2 ou similaires et une intégration avec les systèmes de gestion de cabinet.

Lorsque l’IA est intégrée à un logiciel juridique, les informations sur les clients restent dans un écosystème contrôlé sous le contrôle de l’avocat, et ces données ne sont jamais conservées par une IA ni partagées ou utilisées à des fins de formation. La confidentialité devient un élément fondamental.

Élaborer des politiques d’IA à l’échelle de l’entreprise

La sélection des bons outils n’est qu’une partie de l’adoption responsable de l’IA. Les entreprises ont également besoin de politiques claires définissant quand et comment l’IA peut être utilisée.

Un efficace Politique d’IA devrait indiquer quels outils sont approuvés pour différents types de travail, quelles informations peuvent et ne peuvent pas être saisies dans les systèmes d’IA, et comment vérifier le contenu généré par l’IA avant utilisation. Il doit également établir des exigences de formation afin que tous les membres de l’équipe comprennent à la fois les capacités et les limites de vos outils d’IA.

Les entreprises qui se préparent dès maintenant, en évaluant les outils d’IA actuels, en documentant les processus de vérification et en établissant des politiques claires, se retrouveront mieux positionnées à mesure que les réglementations comme le SB 574 continuent d’évoluer.

Adoptez l’IA de manière responsable grâce à l’IA juridique

Même si le SB 574 ne devient pas loi, ce projet de loi reflète une reconnaissance croissante parmi les législateurs du fait que tous les outils d’IA ne sont pas adaptés à la pratique juridique. Le projet de loi met en évidence les risques auxquels les avocats sont confrontés lorsqu’ils utilisent des systèmes d’IA à usage général qui n’ont pas été conçus dans un souci d’éthique juridique, de confidentialité ou de surveillance professionnelle.

Si l’IA offre de réels avantages, les risques varient considérablement selon le type d’outil utilisé. Les plateformes d’IA publiques axées sur le consommateur peuvent être utiles pour des tâches générales, mais elles peuvent poser de sérieux défis aux avocats lorsque la confidentialité et l’exactitude des clients sont en jeu.

En revanche, les outils d’IA spécifiques au droit comme Clio Work sont conçus pour les réalités de la pratique juridique. Ils sont conçus pour soutenir le secret professionnel de l’avocat, s’appuyer sur des sources vérifiées et soutenir le niveau de contrôle et de responsabilité requis pour les avocats.

Découvrez comment Clio Work aide les avocats à utiliser l’IA de manière responsable. Explorez l’IA conçue pour la pratique juridique, avec des sources vérifiées, des outils d’examen intégrés et des garanties conçues pour protéger la confidentialité des clients.

Réservez une démo Clio

Chargement …

Abonnez-vous au blog



Source link

Publicité

Plus articles a lire

spot_img
spot_img

Faites la subscription avec nous

Lire ausi The European Times.

Lire la suite

Enregistrer secrètement une conversation au travail : est-ce autorisé et est-ce considéré comme une preuve ? (Everest)

Auteur : Joris Deene (Everest) Pouvez-vous enregistrer secrètement une conversation avec votre patron ou votre collègue pour l'utiliser comme preuve plus tard ? La réponse courte est : oui, en principe, il n'est pas interdit d'enregistrer une conversation à laquelle...

Un juge fédéral bloque à nouveau les limites imposées aux visites de détention des législateurs de l’ICE – JURISTE

Un juge fédéral a empêché lundi l'administration Trump d'appliquer pour la deuxième fois une politique exigeant que les membres du Congrès donnent un préavis de sept jours avant de se rendre dans les centres de détention pour immigrants,...

Sous-traitance. L’exception d’inexécution présuppose la proportionnalité entre l’obligation suspendue et la défaillance du débiteur. Tribunal des sociétés d’Anvers 20 juin 2024 (Loi du samedi)

Auteur : Marc Vandasele (à droite samedi) A défaut d'accord écrit et signé, le tribunal doit déterminer la volonté des parties sur la base des preuves présentées, conformément aux règles de preuve applicables. La preuve est ouverte entre les...

Profitez d'un accès exclusif à l'ensemble de notre contenu

Bientôt, nous aurons un abonnement en ligne et vous pourrez débloquer tous les articles que vous rencontrerez.