UK judge warns of risk to justice after lawyers cited fake AI-generated cases in court

Sędzia Victoria Sharp wydała w piątek orzeczenie w sprawie skierowanej do Wysokiego Trybunału, jednego z najważniejszych sądów w Wielkiej Brytanii, przez sądy niższej instancji.
Podejrzewały one, że prawnicy reprezentujący klientów "używali narzędzi sztucznej inteligencji generatywnej do tworzenia argumentów prawnych lub zeznań świadków, które następnie nie zostały sprawdzone".
Okazało się, że w rezultacie prawnicy przedstawili sądowi fałszywe informacje. W jednej ze spraw, której przedmiotem była umowa handlowa o wartości 90 mln funtów, prawnik przytoczył 18 precedensów, które nie istniały.
W odrębnej sprawie prawniczka powołała się na pięć wyimaginowanych precedensów. I choć zaprzeczyła, jakoby pozew zawierający wymyślone precedensy, napisała sztuczna inteligencja, to "nie przedstawiła spójnego wyjaśnienia, jak do tego doszło" - zauważyła sędzia.
Sharp stwierdziła, że dostarczanie sądowi fałszywych materiałów może być uznane za obrazę sądu, a w "najbardziej rażących przypadkach" wręcz za próbę wypaczenia sprawiedliwości, co jest zagrożone karą do dożywocia włącznie.
Sztuczna inteligencja - stwierdziła w piątkowym orzeczeniu Sharp - jest "potężną technologią" i "użytecznym narzędziem". Jednak poza szansami "niesie ze sobą również ryzyko".
Dlatego prawnicy używający AI muszą kontrolować ją i nadzorować zgodnie z "ugruntowanymi standardami zawodowymi i etycznymi, jeśli zaufanie społeczeństwa do wymiaru sprawiedliwości ma zostać zachowane".
Czytaj więcej:
"WSJ": AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli
Włochy: Setki wygenerowanych przez AI fałszywych kazań Leona XIV trafiło do sieci