Michael Cohenehemaliger Anwalt und „Fixer“ für Donald Trumphat den Konsum zugegeben Google‚S KI-Sprachmodell Bard, um Zitate für nicht existierende Gerichtsverfahren in juristischen Dokumenten zu fabrizieren. In einer ziemlich lahmen Verteidigung sagte Cohen, er halte Bard für eine „supergeladene Suchmaschine“ und nicht für einen KI-gestützten Chatbot. Cohens Eingeständnis kam kürzlich bei einer Gerichtsverhandlung zu seinen anhaltenden rechtlichen Problemen ans Licht. Er gestand, Bard dazu benutzt zu haben, Hinweise auf nicht existierende Rechtsurteile zu generieren, um seine Argumente zu untermauern.
Laut einem Bericht von The Verge sagte Cohen auch, dass er sich der neuesten Technologietrends und der damit verbundenen Risiken nicht bewusst sei. „Als Nichtjurist habe ich die aufkommenden Trends (und damit verbundenen Risiken) in der Rechtstechnologie nicht verfolgt und wusste das auch nicht Google Barde war ein generativer Textdienst, der wie Chat-GPT Zitate und Beschreibungen anzeigen konnte, die echt aussahen, es aber tatsächlich nicht waren“, sagte Cohen. „Stattdessen habe ich es als ein verstanden Supergeladene Suchmaschine und hatte es wiederholt in anderen Zusammenhängen verwendet, um online (erfolgreich) genaue Informationen zu finden.“
Darüber hinaus gab Cohen auch seinem Anwalt die Schuld und sagte, er hätte nie gedacht, dass der Rechtsprofi „die Fälle en gros in seine Einreichung aufnehmen würde, ohne auch nur zu bestätigen, dass sie existierten“.
Die Fallstricke generativer KI
Obwohl Bard geschickt darin ist, menschenähnliche Texte zu erstellen, ist er nicht in der Lage, reale von fiktiven rechtlichen Präzedenzfällen zu unterscheiden. Infolgedessen wurden unwissentlich Vorladungen für Fälle erstellt, die nie existierten, was die ohnehin schon komplexe Rechtslage rund um Cohen noch weiter verunsicherte.
Außerdem unterstreicht dieser Vorfall, wie wichtig die Verantwortung des einzelnen Benutzers bei der Nutzung von KI-Tools ist. Benutzer müssen sich der Grenzen dieser Technologien bewusst sein und bei der Bewertung der von ihnen bereitgestellten Informationen kritisch denken. Im Fall von Cohen führten mangelnde Sorgfalt und das Vertrauen auf nicht überprüfte, von der KI generierte Informationen zu einem potenziell schädlichen Rechtsfehler.
Laut einem Bericht von The Verge sagte Cohen auch, dass er sich der neuesten Technologietrends und der damit verbundenen Risiken nicht bewusst sei. „Als Nichtjurist habe ich die aufkommenden Trends (und damit verbundenen Risiken) in der Rechtstechnologie nicht verfolgt und wusste das auch nicht Google Barde war ein generativer Textdienst, der wie Chat-GPT Zitate und Beschreibungen anzeigen konnte, die echt aussahen, es aber tatsächlich nicht waren“, sagte Cohen. „Stattdessen habe ich es als ein verstanden Supergeladene Suchmaschine und hatte es wiederholt in anderen Zusammenhängen verwendet, um online (erfolgreich) genaue Informationen zu finden.“
Darüber hinaus gab Cohen auch seinem Anwalt die Schuld und sagte, er hätte nie gedacht, dass der Rechtsprofi „die Fälle en gros in seine Einreichung aufnehmen würde, ohne auch nur zu bestätigen, dass sie existierten“.
Die Fallstricke generativer KI
Obwohl Bard geschickt darin ist, menschenähnliche Texte zu erstellen, ist er nicht in der Lage, reale von fiktiven rechtlichen Präzedenzfällen zu unterscheiden. Infolgedessen wurden unwissentlich Vorladungen für Fälle erstellt, die nie existierten, was die ohnehin schon komplexe Rechtslage rund um Cohen noch weiter verunsicherte.
Außerdem unterstreicht dieser Vorfall, wie wichtig die Verantwortung des einzelnen Benutzers bei der Nutzung von KI-Tools ist. Benutzer müssen sich der Grenzen dieser Technologien bewusst sein und bei der Bewertung der von ihnen bereitgestellten Informationen kritisch denken. Im Fall von Cohen führten mangelnde Sorgfalt und das Vertrauen auf nicht überprüfte, von der KI generierte Informationen zu einem potenziell schädlichen Rechtsfehler.