Un avocat attend au tribunal de Paris en juin 2012 (Photo d'illustration)

Pour les avocats, les IA génératives sont autant sources d’inquiétudes que de futurs débouchés.

L'Express

Sur le papier, tout semblait parfait : une jurisprudence impliquant des compagnies aériennes, des cas très proches de passagers blessés. Sauf que… tout était inventé par ChatGPT. Début juin, la mésaventure de cet avocat américain berné par le robot conversationnel d’OpenAI a fait le tour du monde en moins de temps qu’il n’en faut pour la raconter. Dans les cabinets de New York, Paris, Londres ou Berlin, elle est apparue comme le cas d’école de ce que l’IA générative peut produire de pire dans l’univers du droit. Depuis quelques mois, la machine à fantasmes fonctionne à plein parmi les avocats, juristes et autres praticiens, entre crainte d’être remplacés par un outil ultra-performant et peur de commettre des erreurs mettant en jeu leur réputation. Il est vrai que leurs métiers sont particulièrement poreux à l’irruption de ces nouvelles technologies, avec leur capacité à traiter, synthétiser et mettre en forme des données à une vitesse bien supérieure à celle du cerveau humain. Le sujet est jugé suffisamment important pour que le barreau de Paris y consacre la prochaine édition de son Paris Legal Makers, le 23 novembre.

Publicité

Plusieurs tâches sont déjà – et le seront encore plus demain – modifiées par l’irruption de ces outils. Premières d’entre elles, les activités de recherche de documentation, de classement de jurisprudences, de recherche de situations équivalentes à un dossier à traiter. "Là où, hier, on employait des documentalistes, des avocats stagiaires ou débutants, il y a désormais des offres d’outils fiabilisés", note Alain Bensoussan, fondateur éponyme du cabinet spécialisé dans les nouvelles technologies. Mais ChatGPT va plus loin : il est capable de produire des résumés à partir d’une documentation, d’indiquer les questions à se poser dans une situation donnée ou les clés d’analyse d’un texte. Il peut aussi rédiger la trame d’un contrat ou des conclusions à déposer à un juge. Autant d’évolutions lourdes de conséquences sur l’emploi. "Toutes ces tâches répétitives peuvent représenter jusqu’à une heure par jour et par personne", évalue Alain Bensoussan.

LIRE AUSSI : IA, ChatGPT... Les Bac +5 vont-ils devenir obsolètes?

L’outil a également appris à faire de la justice prédictive, en évaluant les risques de telle ou telle stratégie, les chances de succès de telle ou telle option. Mais il reste imparfait : "S’il peut servir d’amorce à un raisonnement, il n’est que complémentaire de ce que sait l’avocat. S’y fier, c’est prendre un risque", met en garde Jean-Gabriel Ganascia, professeur en informatique à la Sorbonne. Car plus que la disparition du métier, le risque principal réside dans une trop grande confiance accordée à l’outil. L’analyse fine d’un raisonnement, la vérification des références utilisées, l’élaboration des stratégies ne peuvent être que l’apanage des avocats. Et même si les bases de données sont fiables, leur compilation et la synthèse qui en est tirée peuvent être source d’erreurs.

L’enjeu est là, en très grande partie, aujourd’hui. Avec deux questions qui s’entremêlent et, parfois, se contredisent. Car pour être efficaces, les bases de données ont besoin d’être le plus nourries possible. Mais qui garantit que des données personnelles n’y sont pas identifiables faute d’anonymisation suffisante ? Comment s’assurer que la manière dont elles ont été alimentées n’induit pas des biais qui pèseront sur le travail final et ne produira pas des "hallucinations" comme celle dont a été victime l’avocat américain ? "ChatGPT est programmé pour donner une réponse. Vraie ou fausse, mais une réponse. Il peut donc aller jusqu’à mentir pour fournir un résultat", note Sophie Ferry, présidente de la Commission prospective et innovation du Conseil national des barreaux.

LIRE AUSSI : Daniel Susskind : "L’IA, une mauvaise nouvelle pour de nombreux cadres…"

Pour se prémunir contre ces risques, les professionnels du droit commencent à former leurs collaborateurs à l’utilisation de ces outils. Y compris à ce qui peut paraître un détail, comme la formulation des demandes. Deux personnes qui travaillent sur un même dossier n’obtiendront, en effet, pas la même réponse si elles posent différemment leur question. Les juristes ont conscience que ce sera la seule manière de satisfaire, demain, des clients qui, ayant l’impression de la facilité, leur demanderont des gains de productivité – ou des réductions de tarif – tout en s’inquiétant du respect de leur secret des affaires.

Mais les avocats et juristes devraient trouver matière à se consoler dans le supplément de dossiers générés par l’intelligence artificielle sous toutes ses formes. L’Union européenne, les Etats-Unis, la Chine et bien d’autres préparent des cadres législatifs auxquels il faudra s’adapter et qui seront, à terme, sources de contentieux et de litiges, donc de business. A moins que d’ici là, ChatGPT et ses concurrents n’aient progressé suffisamment pour argumenter contre eux-mêmes…

Publicité