Trafili do aresztu, bo sztuczna inteligencja się pomyliła
Dziennik "Washington Post” przeanalizował policyjne dane z raportów, akt sądowych oraz rozmów z policjantami, prokuratorami i adwokatami. Redakcja zastrzega, że prawdopodobnie naświetliła tylko część problemu, bo prokuratorzy rzadko informują opinię publiczną, kiedy użyli narzędzi sztucznej inteligencji (AI). Tym bardziej, że tylko w siedmiu stanach prawo wymaga ich ujawnienia. Rzeczywista liczba przypadków niesłusznych aresztowań jest więc niemożliwa do ustalenia - podkreśla "WP".
Zbyt duże zaufanie do AI
Jak ustaliła gazeta, w ośmiu znanych przypadkach niesłusznego aresztowania, policjanci tak bardzo zaufali AI, że nie podjęli innych działań śledczych: sprawdzenia alibi, porównania znaków szczególnych lub odcisków palców, zbadania dowodów DNA. Gdyby to zrobili tych osiem osób można by wykluczyć jako podejrzanych jeszcze przed aresztowaniem.
Dziennik podał jako przykład aresztowanie człowieka podejrzanego o zrealizowanie w banku fałszywego czeku na znaczną kwotę. Po rozpoznaniu przez narzędzia AI policja zatrzymała podejrzanego, lecz nie sprawdziła nawet jego kont bankowych.
Trzykrotnie policja zignorowała cechy fizyczne podejrzanych sprzeczne z rozpoznaniem przez AI. Dziennik opisuje przypadek kobiety w zaawansowanej ciąży, aresztowanej za kradzież samochodu, choć ani świadkowie, ani monitoring nie wskazywali, że napadu dokonała ciężarna.
W sześciu przypadkach policja nie sprawdziła zeznań świadków. Tożsamość podejrzanego (zidentyfikowanego przez AI) o kradzież kosztownego zegarka potwierdził pracownik ochrony, którego nie było w sklepie podczas kradzieży.
Doskonałe, ale tylko w laboratorium
"WP" przyznał, że oprogramowanie do rozpoznawania twarzy działa niemal doskonale w warunkach laboratoryjnych, z wykorzystaniem wyraźnych zdjęć porównawczych. Jednak, jak zauważyła Katie Kinsey, badaczka z wydziału prawa uniwersytetu NYU, nie przeprowadzono niezależnych testów sprawdzających dokładność technologii stosowanej do odczytania niewyraźnych zdjęć z monitoringu. Z tego powodu trudno jest ocenić, jak często technologia wadliwie rozpoznaje twarz.
Co więcej, badacze odkryli, że osoby korzystające z narzędzi AI mogą ulegać skłonności do ślepego ufania podejmowanym przez nie decyzjom. "Zaufanie do systemu uniemożliwiło im prawidłową ocenę podobieństw" - podkreślił dziennik.
źr. wPolsce24 za PAP