Deux avocats aux États-Unis ont accusé le chatbot d’intelligence artificielle ChatGPT de les avoir incités à inclure des recherches juridiques fictives dans un dossier judiciaire.
Points clés:
- Un avocat dit qu’il a utilisé ChatGPT lorsqu’il cherchait des précédents juridiques pour soutenir le cas d’un client
- Il dit qu’il “n’a pas compris que ChatGPT pouvait fabriquer des cas”
- Un chercheur dit qu’il “met en évidence les dangers” de l’utilisation de la technologie de l’IA sans connaître les risques
Les avocats Steven A. Schwartz et Peter LoDuca risquent d’être punis pour avoir déposé une plainte contre une compagnie aérienne qui comprenait des références à des affaires judiciaires antérieures que M. Schwartz pensait être réelles, mais qui ont en fait été inventées par le chatbot alimenté par l’intelligence artificielle.
M. Schwartz a expliqué à un juge du tribunal fédéral de Manhattan qu’il avait utilisé le programme alors qu’il recherchait des précédents juridiques soutenant le dossier d’un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d’un vol en 2019.
Le chatbot, qui produit des réponses de type essai aux invites des utilisateurs, a suggéré plusieurs cas impliquant des accidents d’aviation que M. Schwartz n’avait pas été en mesure de trouver par les méthodes habituelles utilisées dans son cabinet d’avocats.
Le problème était que plusieurs de ces cas n’étaient pas réels ou impliquaient des compagnies aériennes qui n’existaient pas.
M. Schwartz a déclaré au juge de district américain P. Kevin Castel qu’il “opérait selon une idée fausse… que ce site Web obtenait ces cas d’une source à laquelle je n’avais pas accès”.
Il a dit qu’il avait “lamentablement échoué” à faire des recherches de suivi pour s’assurer que les citations étaient correctes.
Le succès du chatbot d’OpenAI qui démontre comment l’intelligence artificielle pourrait changer la façon dont les humains travaillent et apprennent a suscité des craintes chez certains.
M. Castel a semblé à la fois déconcerté et troublé par cet événement inhabituel et déçu que les avocats n’aient pas agi rapidement pour corriger les fausses citations juridiques lorsqu’ils ont été alertés pour la première fois du problème par les avocats d’Avianca et le tribunal.
Avianca a souligné la fausse jurisprudence dans un dossier de mars.
Le juge a confronté M. Schwartz avec une affaire judiciaire inventée par le programme informatique.
Il a été initialement décrit comme une affaire de mort injustifiée intentée par une femme contre une compagnie aérienne pour se transformer en une action en justice concernant un homme qui a raté un vol pour New York et a été contraint d’engager des dépenses supplémentaires.
« Pouvons-nous convenir que c’est du charabia juridique ? » a demandé M. Castel.
M. Schwartz a déclaré qu’il pensait à tort que la présentation confuse résultait d’extraits tirés de différentes parties de l’affaire.
“Je voudrais sincèrement m’excuser”, a déclaré M. Schwartz.
Il a dit qu’il avait souffert personnellement et professionnellement à la suite de la bévue et qu’il se sentait “gêné, humilié et extrêmement plein de remords”.
Il a déclaré que lui et son entreprise avaient mis en place des garanties pour s’assurer que rien de semblable ne se reproduise.
M. LoDuca, un autre avocat qui a travaillé sur l’affaire, a déclaré qu’il faisait confiance à M. Schwartz et n’avait pas examiné de manière adéquate ce qu’il avait compilé.
Après que le juge a lu à haute voix des extraits d’une affaire citée pour montrer à quel point il était facile de discerner qu’il s’agissait de “charabia”, M. LoDuca a déclaré: “Je n’ai jamais compris qu’il s’agissait d’une affaire bidon.”
Il a dit que le résultat “me fait mal sans fin”.
L’affaire met en lumière les “dangers” de l’utilisation de l’IA
Ronald Minkoff, un avocat du cabinet d’avocats, a déclaré au juge que la soumission “résultait d’une négligence et non d’une mauvaise foi” et ne devrait pas entraîner de sanctions.
Il a déclaré que les avocats ont toujours eu du mal avec la technologie, en particulier les nouvelles technologies, “et cela ne devient pas plus facile”.
“M. Schwartz, quelqu’un qui fait à peine de la recherche fédérale, a choisi d’utiliser cette nouvelle technologie. Il pensait qu’il avait affaire à un moteur de recherche standard”, a déclaré M. Minkoff.
Daniel Shin, qui est directeur adjoint de la recherche au Center for Legal and Court Technology de la William & Mary Law School en Virginie, a déclaré que l’affaire montrait comment les avocats n’avaient peut-être pas compris le fonctionnement de ChatGPT.
Il a dit que cela avait tendance à halluciner, à parler de choses fictives d’une manière qui semble réaliste mais qui ne l’est pas.
“Cela met en évidence les dangers de l’utilisation de technologies d’IA prometteuses sans en connaître les risques”, a déclaré M. Shin.
Le juge a déclaré qu’il statuerait sur les sanctions à une date ultérieure.
PA
2023-06-09 08:42:08
1686291822
#Des #avocats #aux #ÉtatsUnis #reprochent #ChatGPT #les #avoir #incités #citer #fausses #affaires #judiciaires