Dwaj sędziowie wydali wyroki z rażącymi błędami. Przyznali, że pomagała im AI

Z tego tekstu dowiesz się:
-
Dwóch sędziów federalnych z USA – Julien Xavier Neals (New Jersey) i Henry Wingate (Missisipi) – przyznało, że AI pomogła w napisaniu ich wyroków, w których znaleziono błędy.
-
Sprawę ujawnił senator Chuck Grassley, przewodniczący Komisji Sądownictwa Senatu USA.
-
W obu przypadkach AI wykorzystano bez wiedzy sędziów – przez praktykanta i urzędnika sądowego.
-
W jednym przypadku użyto ChatGPT, w drugim Perplexity AI.
-
Błędy wykryto po publikacji, a wyroki natychmiast wycofano i poprawiono.
-
Sędziowie wdrożyli pisemne zakazy użycia AI w procesach sądowych bez nadzoru człowieka.
-
Grassley pochwalił sędziów za transparentność, ale wezwał do stworzenia jasnych zasad korzystania z AI w sądownictwie.
W ostatnich latach sztuczna inteligencja (AI) – eksperci podkreślają, że ta nazwa nie jest do końca poprawna – przeżywa prawdziwą rewolucję. Jeszcze niedawno była tylko ciekawostką, ale dzisiaj algorytmy, które potrafią analizować treści i tworzyć na tej podstawie nowe, stają się coraz powszechniejszym elementem codziennego życia. Wiele osób uważa, że rozwój AI sprawi, że w wielu dziedzinach życia komputery zastąpią ludzi.
"Pomogła" sztuczna inteligencja
Historia ujawniona przez senatora Chucka Grassleya pokazuje jednak, że przynajmniej prawnicy nie muszą się jeszcze tego obawiać. Senator, który jest przewodniczącym senackiej Komisji ds. Sądownictwa, zainteresował się dwoma niezwiązanymi ze sobą wyrokami, które zapadły niedawno w dwóch amerykańskich sądach federalnych – w New Jersey i w Missisipi. Jak informuje Fox News, oba miały rażące błędy. Grassley napisał do sędziów, którzy się pod nimi podpisali, żądając wyjaśnień.
Teraz polityk ujawnił treść listów, które od nich dostał. Sędzia Julien Xavier Neals z New Jersey i sędzia Henry Wingate z Missisipi przyznali, że w tworzeniu obu użyto generatywnej AI. Obaj twierdzą jednak, że nie była to ich decyzja i dowiedzieli się o tym po fakcie. Obaj przyznali za to, że ich treść nie przeszła przez zwykły proces sprawdzenia zanim zostały opublikowane.
Zawinił praktykant
Sędzia Neals o błędy w wstępnej wersji wyroku obwinił praktykanta ze szkoły prawa. Poinformował, że użył on ChatGPT – jednego z najpopularniejszych modelów AI – do przeprowadzenia kwerendy prawnej. Dodał, że nie poprosił go o zgodę na takie działanie ani mu o tym nie powiedział, a on sam wycofał wyrok, gdy tylko zwrócono mu uwagę na te błędy.
Neals dodał, że jego sąd zabrania używania generatywnej AI w kwerendach prawnych czy przy tworzeniu wyroków, rozkazów i opinii. W przeszłości moja zasada była komunikowana pracownikom sądu, w tym praktykantom, ustnie. Tak już nie jest – napisał w liście do senatora dodając, że teraz ta zasada jest już komunikowana w formie pisemnej.
Wingate napisał, że sądowy urzędnik użył innego modelu AI, Perplexity, by pomóc sobie w syntezie publicznie dostępnych informacji w tej sprawie. Dodał, że opublikowanie wstępnej wersji tego wyroku było błędem w ludzkim nadzorze. Dodał, że zamienił ten wyrok na nowy, ale jak zauważa Fox News, nie podał wtedy innych powodów tej zmiany niż błędy pracowników sądu. To był błąd. Podjąłem kroki w moim sądzie, by zapewnić, że takie błędy nie zdarzą się po raz kolejny – podkreślił.
Senator był zadowolony z tych wyjaśnień. Stwierdził, że szczerość to zawsze najlepsza decyzja i pochwalił sędziów za to, że przyznali się do błędów i podjęli kroki, by nie dochodziło do nich w przyszłości. Dodał w oświadczeniu, że każdy sędzia federalny, i sądownictwo jako instytucja, mają obowiązek zapewnienia, że użycie generatywnej AI nie naruszy praw uczestników procesu ani nie przeszkodzi w ich sprawiedliwym potraktowaniu. Dodał, że sędziowie muszą opracować bardziej znaczące i trwałe zasady i wskazówki korzystania z AI. Nie możemy pozwolić, by lenistwo, apatia czy nadmierne poleganie na cyfrowej pomocy zaszkodziło zobowiązaniu sądownictwa do uczciwości i trzymania się faktów – podkreślił.
źr. wPolsce24 za Fox News










