- Par Kathryn Amstrong
- nouvelles de la BBC
Un avocat de New York fait face à sa propre audience après que son cabinet a utilisé l’outil d’intelligence artificielle ChatGPT pour ses recherches juridiques.
Un juge a déclaré que le tribunal était confronté à une “circonstance sans précédent” après qu’un dossier ait été trouvé pour faire référence à des exemples de cas juridiques qui n’existaient pas.
L’avocat qui a utilisé l’outil a déclaré au tribunal qu’il “ignorait que son contenu pouvait être faux”.
ChatGPT crée du texte original sur demande, mais est livré avec des avertissements, il peut “produire des informations inexactes”.
L’affaire initiale impliquait un homme poursuivant une compagnie aérienne pour une blessure corporelle présumée. Son équipe juridique a soumis un mémoire citant plusieurs affaires judiciaires antérieures dans le but de prouver, en utilisant des précédents, pourquoi l’affaire devrait aller de l’avant.
Mais les avocats de la compagnie aérienne ont écrit plus tard au juge pour dire qu’ils ne pouvaient pas trouver plusieurs des cas mentionnés dans le dossier.
“Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes”, a écrit le juge Castel dans une ordonnance demandant à l’équipe juridique de l’homme de s’expliquer.
Au fil de plusieurs dépôts, il est apparu que la recherche n’avait pas été préparée par Peter LoDuca, l’avocat du plaignant, mais par un de ses collègues du même cabinet d’avocats. Steven A Schwartz, qui est avocat depuis plus de 30 ans, a utilisé ChatGPT pour rechercher des cas antérieurs similaires.
Dans sa déclaration écrite, M. Schwartz a précisé que M. LoDuca n’avait pas participé à la recherche et n’avait aucune connaissance de la manière dont elle avait été menée.
M. Schwartz a ajouté qu’il “regrette beaucoup” de s’être appuyé sur le chatbot, qu’il a dit n’avoir jamais utilisé pour des recherches juridiques auparavant et qu’il “ignorait que son contenu pouvait être faux”.
Il s’est engagé à ne jamais utiliser l’IA pour “compléter” ses recherches juridiques à l’avenir “sans vérification absolue de son authenticité”.
Les captures d’écran jointes au dossier semblent montrer une conversation entre M. Schwarz et ChatGPT.
“Est-ce que Varghese est un cas réel”, lit-on dans un message, faisant référence à Varghese c. China Southern Airlines Co Ltd, l’un des cas qu’aucun autre avocat n’a pu trouver.
ChatGPT répond que oui, c’est – incitant “S” à demander : “Quelle est votre source”.
Après “double vérification”, ChatGPT répond à nouveau que le cas est réel et peut être trouvé sur des bases de données de référence juridiques telles que LexisNexis et Westlaw.
Il dit que les autres cas qu’il a fournis à M. Schwartz sont également réels.
Les deux avocats, qui travaillent pour le cabinet Levidow, Levidow & Oberman, ont été sommés d’expliquer pourquoi ils ne devraient pas être sanctionnés lors d’une audience le 8 juin.
Des millions de personnes ont utilisé ChatGPT depuis son lancement en novembre 2022.
Il peut répondre aux questions dans un langage naturel et humain et il peut également imiter d’autres styles d’écriture. Il utilise Internet tel qu’il était en 2021 comme base de données.
On s’est inquiété des risques potentiels de l’intelligence artificielle (IA), y compris la propagation potentielle de la désinformation et des préjugés.
2023-05-28 01:20:03
1685227689
#ChatGPT #avocat #américain #admet #avoir #utilisé #lIA #pour #recherche #cas