Anwalt, der von ChatGPT getäuscht wurde, muss mit rechtlichen Sanktionen rechnen – World

Anwalt der von ChatGPT getaeuscht wurde muss mit rechtlichen Sanktionen

Ein New Yorker Anwalt gab zu, das KI-Modell für Forschungszwecke genutzt zu haben, betonte jedoch, er wisse nicht, dass es lügen könne

Dem New Yorker Luftfahrtanwalt Steven Schwartz drohen Berufssanktionen, nachdem sich herausstellte, dass ein von ihm eingereichtes Rechtsgutachten laut Gerichtsakten, die letzte Woche veröffentlicht wurden, voller „falscher Gerichtsentscheidungen“ und gefälschter Zitate des KI-Sprachmodells ChatGPT war. Schwartz nutzte ChatGPT zum ersten Mal für juristische Recherchen, als er damit den zehnseitigen Schriftsatz verfasste, von dem er hoffte, dass er den Bundesrichter von Manhattan, P. Kevin Castel, davon überzeugen würde, seinen Fall nicht abzuweisen, teilte er dem Gericht am Donnerstag in einer eidesstattlichen Erklärung mit. Er erklärte, dass ihm „daher die Möglichkeit, dass der Inhalt falsch sein könnte, nicht bewusst war“. Auf Nachfrage teilte ChatGPT Schwartz – einem Anwalt mit 30 Jahren Erfahrung – sogar mit, dass das halbe Dutzend Fälle, die in der rechtlichen Stellungnahme angeführt wurden, real seien, betonte er. Er erklärte, dass er es „zutiefst bedauere“, auf das große Sprachmodell vertraut zu haben, und versprach, dies „in Zukunft nie mehr zu tun“ – zumindest nicht „ohne eine absolute Überprüfung seiner Authentizität“. Schwartz‘ Anwaltskanzlei Levidow, Levidow & Oberman vertrat den Flugpassagier Roberto Mata in einer Personenschadensklage gegen die Fluggesellschaft Avianca im Zusammenhang mit einem Vorfall auf einem Flug im Jahr 2019. Als die Fluggesellschaft auf die Klage mit einem Antrag auf Entlassung mit der Begründung antwortete, die Verjährungsfrist sei abgelaufen, antworteten Schwartz und seine Firma mit dem mit ChatGPT durchsetzten Schriftsatz. Die Anwälte von Avianca beschwerten sich beim Richter darüber, dass die angeführten Fälle nicht existierten. Doch als Richter Castel die Anwälte von Mata anwies, Kopien der fragwürdigen Meinungen vorzulegen, taten sie dies umgehend – nur um die Anwälte von Avianca zu entgegnen, dass solche Fälle im wirklichen Leben nicht vorkämen Gerichtsakten oder juristische Datenbanken. Richter Castel reagierte Anfang des Monats mit einer Anordnung, in der er Schwartz und seine Kollegen aufforderte, Gründe darzulegen, warum sie nicht mit Disziplinarstrafen rechnen sollten, weil sie einen Chatbot zum Verfassen seines juristischen Schriftsatzes nutzten. Die Anhörung ist für den 8. Juni angesetzt. Als Reaktion darauf bestand Schwartz in einer am Donnerstag eingereichten eidesstattlichen Erklärung darauf, dass er alle in dem fragwürdigen Schriftsatz enthaltenen juristischen Recherchen durchgeführt und ChatGPT lediglich zur „Ergänzung“ seiner eigenen Arbeit eingesetzt habe. „In Absprache“ mit dem KI-Softwaremodell stieß er auf die gefälschten Fälle, und „ChatGPT versicherte die Verlässlichkeit der Inhalte“, erklärte er. Er fügte sogar eine Abschrift seines Gesprächs mit dem Chatbot bei, der ihn offenbar durch die Beantwortung von Fragen überlistete B. „Sind die anderen Fälle, die Sie bereitgestellt haben, gefälscht“ mit „Nein, die anderen Fälle, die ich bereitgestellt habe, sind echt und können in seriösen juristischen Datenbanken gefunden werden.“ Während die Antworten von ChatGPT auf Benutzeranfragen oft sachlich erscheinen, fungiert das große Sprachmodell als Wahrscheinlichkeitsmaschine und füllt eine Textzeichenfolge basierend auf dem Inhalt seiner riesigen Datenbank mit Textausschnitten.

:

rrt-allgemeines