IA et pratique non autorisée du droit : le procès OpenAI

.NETWORKLe Tribunal - En VedetteIA et pratique non autorisée du droit : le procès OpenAI

Maintenant qu’OpenAI est poursuivi pour avoir exercé le droit sans licence, que devraient dire les avocats à leurs clients sur l’utilisation de l’IA générative ?

Eh bien, c’est finalement arrivé. OpenAI a été poursuivi pour avoir exercé le droit sans licence.

Qu’est-ce qui a déclenché le procès ?

Apparemment, c’est la même chose qui s’est produite depuis des millénaires : un client qui n’aimait pas les conseils de son avocat est allé chercher un deuxième avis. Mais cette fois depuis ChatGPT.

Au lieu d’embaucher un nouvel avocat, elle a fait appel à l’algorithme. Et cela montre comment ce petit changement de comportement produit déjà des situations juridiques très étranges.

Au centre du procès intenté par Nippon Life Insurance Co. of America contre OpenAI, le créateur de ChatGPT, se trouve une ancienne assurée, Graciela Dela Torre.

L’affaire ressemble moins à un litige en matière d’assurance qu’à un aperçu de l’avenir de la profession façonné par l’IA.

« Hey ChatGPT, est-ce que mon avocat m’éclaire ? »

Le procès Nippon Life apporte une nouvelle urgence au débat autour de l’IA et de la pratique non autorisée du droit. Voici la version courte du litige.

Dela Torre est parvenue à un accord avec Nippon et a signé une quittance. L’affaire a été classée. Fait. Sur. Plus tard, elle a souhaité rouvrir les négociations. Son avocat a souligné un détail mineur : elle avait déjà abandonné les réclamations. Juridiquement parlant, cela tend à mettre un terme à la conversation.

Peu convaincue, elle a téléchargé la lettre de son avocat et les documents de son dossier sur ChatGPT et a posé une question que de nombreux professionnels ont entendue sous une forme ou une autre : « Suis-je en train d’être éclairé ? »

ChatGPT aurait dit oui.

À ce moment-là, les choses ont dégénéré. Dela Torre a licencié son avocat et a commencé à se représenter elle-même – avec ChatGPT comme co-conseil. Elle a rédigé et déposé 21 requêtes, une assignation à comparaître et huit avis et déclarations. Dans une affaire déjà close.

Le tribunal a rejeté les requêtes. Sans se décourager, elle est revenue à ChatGPT et a rédigé un tout nouveau procès.

Finalement, Nippon a poursuivi OpenAI, alléguant que sa technologie était engagée dans la pratique du droit sans licence.

Et la question plus large ?

La réussite de cette réclamation dépend en fin de compte des tribunaux. Mais le problème plus large est clair : les clients ont désormais accès à des outils qui génèrent instantanément des arguments juridiques, que ces arguments soient corrects, pertinents ou viables sur le plan procédural. Et ces outils sont convaincants.

Les grands modèles de langage produisent des réponses sûres et cohérentes. Ils ne disent pas : « Vous avez signé une décharge. C’est fini. » Ils génèrent un langage qui ressemble à un raisonnement. Ils répondent également dans le cadre de la question qui leur est posée.

Pour un client frustré, cela peut ressembler à une validation. Du point de vue du client, c’est simple :

Mon avocat dit que je ne peux pas. L’IA dit que je peux.

Peut-être que mes avocats ne veulent tout simplement pas se battre – ou pire, peut-être qu’ils ont tort.

Le résultat est plus que des conversations gênantes. Ce sont des dossiers. Mouvements. De nouveaux procès. Autant de questions que les tribunaux et les avocats de la partie adverse doivent maintenant régler.

Ce n’est probablement qu’un début.

Alors, que devraient dire les avocats à leurs clients maintenant ?

L’IA est très efficace pour produire du langage. Il peut décrire, résumer et rédiger rapidement. Ce qu’il ne peut pas faire de manière fiable, c’est déterminer si une réclamation est viable, s’il existe une compétence ou si une renonciation met fin à l’affaire. Il prédit les modèles dans le texte. Ce n’est pas la même chose que pratiquer le droit.

Les clients doivent comprendre la différence.

2. Le dépôt de documents générés par l’IA a des conséquences

Les tribunaux voient déjà des documents rédigés par AI qui citent des cas inexistants ou présentent des arguments qui ne s’appliquent pas. Les juges ne sont pas amusés. Une fois déposé, un document fait partie du dossier. Une motion fondée sur une autorité fictive peut très rapidement nuire à la crédibilité. Ce qui semble stimulant dans une fenêtre de discussion peut s’avérer imprudent dans une salle d’audience.

3. L’IA est souvent d’accord avec la question que vous posez

Les systèmes d’IA sont conçus pour être réactifs et solidaires. Si quelqu’un arrive convaincu d’avoir été lésé, le modèle explore souvent cette prémisse. Cela peut ressembler à un accord. Demandez à une plateforme GAI : « Suis-je en train d’être éclairé ? » et la réponse peut expliquer de manière réfléchie pourquoi la situation pourrait ressembler à cela. Mais le modèle n’apprécie pas les preuves ni n’applique de règles procédurales. Cela répond au récit intégré dans la question.

L’IA n’a pas déterminé que l’avocat avait tort. Il suivait simplement l’histoire qui lui avait été racontée.

ChatGPT en tant que co-conseil

L’épisode Dela Torre est amusant en apparence. Vingt et une motions dans un dossier clos suffiront. Mais cela signale aussi un changement.

Les clients ont désormais un accès instantané à des outils qui semblent faire autorité, répondent en toute confiance et n’envoient jamais de facture. Pour les avocats, cela signifie que l’IA générative est devenue le dernier acteur dans de nombreux dossiers clients.

ChatGPT n’est peut-être pas l’avocat adverse, mais GAI est définitivement dans la salle.

Plus de conseils sur la pratique du droit de Brooke Lively

Pour plus de conseils sur la création d’un cabinet d’avocats rentable, lisez :

Image © iStockPhoto.com.

AttorneyatWork Logo %C2%AE 2021 1

Inscrivez-vous à la newsletter quotidienne des conseils pratiques de Attorney at Work ici et abonnez-vous à notre podcast, Attorney at Work Today.


Source:

www.attorneyatwork.com

Découvrez nos autres contenus

Articles les plus populaires