121 avenue des Champs-Élysées - 75008 Paris
+33 (0)1 72 71 85 00
contact@imfinity.fr

ChatGPT deviendra-t-il l’outil du juriste de demain ?

Non, ChatGPT ne sera pas l’outil unique du juriste de demain mais un outil perfectible pour tout spécialiste du droit.

« ChatGPT pourrait être utilisé pour automatiser la transcription, générer des résumés de cas, aider à la recherche juridique ou générer des documents juridiques standard » Voilà ce que répond ChatGPT à la question « Quelle est l’utilité de ChatGPT pour le monde judiciaire ? » Mais qu’en est-il vraiment ?

ChatGPT, c’est la nouvelle intelligence artificielle qui révolutionne le genre. Un outil conversationnel développé par OpenAI, société américaine fondée en 2015 entre autres par un certain Elon Musk. « Je suis utilisé pour des tâches telles que la génération de contenu, la traduction automatique, la compréhension de langage naturel et la réponse à des questions » raconte le robot dans la conversation.

ChatGPT repose sur un algorithme. Il s’appuie sur une vaste base de données (tenue secrète) pour répondre aux questions posées sur la base d’un calcul de probabilité à partir des informations qui « nourrissent » l’IA. Si certaines réponses sont impressionnantes, d’autres conduiraient plutôt l’outil – un brin têtu – à faire un séjour à l’école maternelle :

ChatGPT a une incapacité à dénombrer

Avec cet exemple, l’utilisateur touche du doigt la limite majeure du robot : sa base de données. Impossible d’en connaître le contenu ni de savoir sur quels éléments l’IA s’appuie pour rédiger ses réponses. S’agit-il d’une source fiable, reconnue et indiscutable ? Ou d’éléments plus discutables… voire totalement farfelus ? Il n’existe aucun système de blockchain ou de modération – comme sur Wikipédia – pour apporter du crédit à l’information donnée. Certes, ChatGPT évite de faire une requête Google puis de chercher sa réponse parmi les sites les mieux référencés en faisant le tri. Mais avec le robot, l’utilisateur devient captif et n’a plus qu’un seul point de vue.

Il existe trois freins majeurs à l’utilisation de ChatGPT

Premier frein : l’absence de traçabilité systématique des sources

« En l’état, le fait que les sources ne soient pas traçables constitue un frein rédhibitoire à l’utilisation généralisée dans le domaine du droit, estime Arnaud Desclèves. Par nature, tout avis juridique repose sur des sources identifiées, qui doivent d’ailleurs être toutes citées en annexe des notes rendues. C’est aujourd’hui impossible avec ChatGPT. »

Deuxième frein : l’absence d’exhaustivité systématique

Autre problème d’un point de vue légal : l’exhaustivité. ChatGPT s’appuie sur des données partielles. À l’inverse d’un avis juridique qui doit prendre en compte l’intégralité de l’état de l’art, cette IA ne pioche ses réponses qu’à partir d’un panel subjectif de données.

Troisième frein : l’absence de prise de position systématique

Enfin, tout avis juridique repose sur une analyse, ce qu’en l’état ChatGPT est incapable de produire. « D’ailleurs, l’outil se définit lui-même comme impartial, c’est-à-dire qu’il ne prend pas position et synthétise un ensemble de données. Or, par définition, un avis juridique est partial puisqu’il s’agit d’adopter une position ferme sur un problème précis ! »

ChatGPT est assurément un support ponctuel

Une utilisation est-elle pour autant impossible dans le monde juridique ? « Il est envisageable d’imaginer des applications pour certaines tâches très précises, par exemple dans le cadre d’une première phase de recherche. Poser la question à l’IA donne des pistes, qu’il faut approfondir et confirmer, mais qui apportent une orientation. Pour la rédaction d’une note purement technique, ChatGPT pourra aussi servir d’appui. Mais en aucun cas remplacer l’humain. Et il est aujourd’hui inconcevable d’envoyer au client une note rédigée par l’outil ! »

ChatGPT peut aussi apporter un soutien dans l’écriture. Une phrase à reformuler, un mail à rédiger, une tonalité à reprendre : il peut résoudre rapidement des situations parfois bloquantes. « On dit souvent que les juristes sont des littéraires et que les scientifiques ne se tournent par vers ces carrières. La matière est pourtant bien scientifique ! Et si ces outils contribuaient à attirer de nouveaux profils vers nos métiers, en leur simplifiant la tâche ? » questionne Arnaud Desclèves.

Attention toutefois au risque d’uniformisation. Neutre, poli, impartial : ChatGPT pourrait aussi tendre à tout lisser, à gommer les aspérités, à uniformiser l’écriture et le discours. Voire uniformiser la pensée ? C’est en tout cas l’un des reproches émis par certains observateurs qui constatent que le programme tend à tout normer. D’ailleurs, l’une des techniques « manuelles » utilisées pour détecter un texte écrit par ChatGTP repose sur une petite étude sémantique : absence d’expressions rares, originales et peu utilisées au profit de termes très génériques et d’une impersonnalisation des textes. En anglais par exemple, cela se traduit par une profusion de « the » (le), « it » (cela) ou « is » (est). Un appauvrissement du langage qui pose, finalement, des questions philosophiques. Jusqu’à quel point cette IA pourra-t-elle supplanter l’humain ?

L’agent conversationnel sert le juriste

« L’IA peut constituer un support à l’analyse, mais le rôle du juriste sera toujours de faire un choix et de prendre la décision. Cela revient à se poser la question de la place de l’avocat dans la Cité. Je m’attends très prochainement à la publication de guidelines par l’ordre des avocats, pour indiquer les règles déontologiques à respecter en matière d’IA, dans une logique de qualité de service mais aussi de protection de la profession. »

Ce n’est pourtant pas la première innovation technologique à surgir dans le monde juridique, qui souhaite s’en emparer pour moderniser ses pratiques. « Avec le management de transition juridique augmenté, nous sommes déjà habitués à des solutions telles que la signature électronique ou l’IA pour l’aide à la rédaction de contrat. Le partenariat d’IMfinity avec Luminance permet de synthétiser tous les documents fournis à l’application pour rédiger un modèle de contrat, qu’il suffit de compléter et personnaliser. Un gain de temps qui n’enlève rien au rôle de l’expert. C’est la même approche que nous envisageons avec ChatGPT. » Autre application possible : avec sa neutralité affichée, le robot pourrait-il faciliter les tâches de médiation et de résolution amiable de litige ?

L’IA suscite le doute

Mais en regardant plus loin, jusqu’où pourrait aller l’outil ? Si ses performances augmentaient, si ses sources devenaient plus avérées, voire s’il était en capacité de prendre des décisions ? Imaginerions-nous un juge, en pleine hésitation au moment de rendre un arrêt, demander son avis à l’IA ? Une dystopie qui interroge sur l’évolution de nos démocraties où les algorithmes prennent une place croissante… De quoi remettre en question la fameuse formule « La justice est le doute sur le droit qui sauve le droit ». D’ailleurs, de qui est cette citation ?

ChatGPT attribue mal une citation

Raté ! C’est d’Alain.

Le droit de douter

Parlons-en, justement de la possibilité de douter : il semblerait que le robot ait la capacité à s’auto-corriger – on peut donc lui insuffler quelque doute ! Voici le comportement, enregistré ultérieurement par nos équipes, d’un robot devenu dans l’intervalle plus raisonnable :

ChatGPT apprend à compter
ChatGPT est ignorant

Sauvé, le doute est donc permis !

.

« Jusqu’où pourrait aller l’outil ? Si ses performances augmentaient, si ses sources devenaient plus avérées, voire s’il était en capacité de prendre des décisions ? »