Ein Anwalt hatte den Chatbot verwendet, um einen Antrag zu prüfen. Das verlief äußerst unglücklich. Nun ist der Anwalt aufgetaucht.
Der Versuch eines Anwalts in New York, den Chatbot Chat-GPT zu verwenden, um einen Fall zu untersuchen, ist äußerst unglücklich gegangen. Ein Antrag, den er vorlegte, enthielt Anspielungen auf Fälle wie „Petersen gegen Iran Air“ und „Martinez gegen Delta Airlines“, die völlig neu waren. Laut dem Anwalt wurden die vermeintlichen Urteile und Aktenzeichen von Chat-GPT veröffentlicht.
Eine Anhörung wurde von dem zuständigen Richter in dem Fall für Anfang Juni geplant. Ein Passagier hat die Fluggesellschaft Avianca verklagt, da er von einem Servierwagen am Knie verletzt wurde. Die Fluggesellschaft hat beantragt, die Klage abzuweisen. Im März machte die Anwaltskanzlei des Klägers auf mehrere frühere Urteile aufmerksam. Die Avianca-Anwälte konnten jedoch keine Beweise dafür finden, dass sechs davon überhaupt existieren.
In einer Aussage schwor der Anwalt des Klägers, dass er das Gericht nicht täuschen wollte, sondern sich ausschließlich auf Versprechen von Chat-GPT verlassen habe, dass die Fälle authentisch seien. Im April hat der Chatbot auch Texte von vermeintlichen Urteilen veröffentlicht, die von seiner Kanzlei dem Gericht vorgelegt wurden. In diesen Dokumenten wurden auch Beispiele für Fälle erwähnt, die sich als fiktiv erwiesen haben. Es wäre möglich gewesen, dies zu überprüfen, da es in den Vereinigten Staaten Datenbanken mit Entscheidungen gibt.