Un avocat admet avoir utilisé ChatGPT pour un mémoire et cela a créé des précédents juridiques

Mis à jour le samedi 27 mai 2023 – 23:50

L’avocat s’expose à d’éventuelles sanctions et doit expliquer à la Cour pourquoi il ne devrait pas être puni

Une femme utilise ChatGPT.EXPANSIN

Un avocat américain risque d’être sanctionné après avoir utilisé le populaire ChatGPT pour rédiger un mémoire et découvrir que l’application d’intelligence artificielle (IA) avait tout inventé. une série de prétendus précédents juridiques.

Tel que publié ce samedi par le journal Le New York Timesl’avocat en difficulté est Steven Schwartz, avocat dans une affaire en cours de résolution devant un tribunal de New York, un procès contre la compagnie aérienne Avianca intenté par un passager qui prétend avoir subi une blessure lorsqu’il a été heurté avec un chariot de service lors d’un vol. .

Schwartz représente le demandeur et a utilisé ChatGPT pour préparer un écrit dans laquelle il s’est opposé à une demande de la défense visant à faire rejeter l’affaire.

Dans le document d’une dizaine de pages, l’avocat cite plusieurs décisions judiciaires à l’appui de ses thèses, mais il ne tarde pas à découvrir que le célèbre chatbot de la société OpenAI les avait inventés.

« La Cour se tient devant une situation inédite. Un dossier soumis par l’avocat du demandeur en opposition à une requête en rejet (de l’affaire) regorge de citations d’affaires inexistantes », a écrit le juge Kevin Castel ce mois-ci.

Ce vendredi, Castel a rendu une ordonnance convoquant une audience le 8 juin dans laquelle Schwartz doit tenter d’expliquer pourquoi il ne devrait pas être sanctionné après avoir tenté d’utiliser des hypothèses de précédent complètement fausses.

Il l’a fait un jour après que l’avocat lui-même a déposé une déclaration sous serment dans laquelle il a admis avoir utilisé ChatGPT pour préparer le mémoire et a reconnu que la seule vérification qu’il avait effectuée était de demander à l’application si les cas qu’il citait étaient réels.

Schwartz se justifie en assurant que jamais utilisé un outil auparavant de ce type et qui, par conséquent, « n’avait pas conscience de la possibilité que son contenu puisse être faux ».

L’avocat a souligné que n’avait pas l’intention d’induire le tribunal en erreur et totalement disculpé un autre avocat du cabinet qui s’expose lui aussi à d’éventuelles sanctions.

Le document, vu par Efe, se termine par des excuses dans lesquelles Schwartz regrette profondément d’avoir utilisé l’intelligence artificielle pour soutenir ses recherches et s’engage à ne plus jamais le faire sans en avoir pleinement vérifié l’authenticité.

Selon les critères de The Trust Project

Savoir plus

fr-01