Policjant zmienił się w żabę? To nie magia - to błąd sztucznej inteligencji, która napisała raport

Zaskakujący incydent miał miejsce w miasteczku Heber City w stanie Utah. Jak informuje portal Vice, w grudniu tamtejsza policja odkryła, że w oficjalnym raporcie z interwencji znalazła się informacja, że w jej trakcie jeden z funkcjonariuszy zmienił się w żabę. Szybko odkryto, że stoi za tym nie zła czarownica – a błąd oprogramowania AI, którego policjanci użyli przy pisaniu oficjalnego raportu.
Jak donosi Forbes, komisariat w Heber City jest jednym z tysięcy, które zaczęły korzystać z AI by usprawnić pracę policjantów. W tym wypadku zaczęli testować dwa programy -Draft One, stworzony przez produkującą sprzęt policyjny firmę Axon oraz Code Four. Oba służą do tego samego: analizują nagrania z kamer, które policjanci noszą na mundurach i tworzą na ich podstawie raporty. Sierżant Rick Keel wyjaśnił lokalnej stacji Fox 13, że w czasie tej interwencji był włączony telewizor, na którym leciał film Disneya, „Księżniczka i żaba”. Kamera zarejestrowała dialogi z tego filmu, a AI uznała je za rzeczywistość. Wtedy dowiedzieliśmy się, jak ważne jest korygowanie tych stworzonych przez AI raportów – powiedział Keel.
To nie był jednak jedyny taki wypadek. Keel zorganizował pokaz tego oprogramowania dla dziennikarzy. Miało napisać raport z symulowanej kontroli drogowej. Stworzony przez nie raport na pierwszy rzut oka wyglądał normalnie. Po jego dokładniejszym przeczytaniu okazało się jednak, że mimo tego, że chodziło o rutynową, prostą sprawę w symulowanych warunkach, było w nim tyle błędów, że bez daleko idących poprawek był bezużyteczny.
Producenci tego typu oprogramowania reklamują je tym, że pozwala ograniczyć czas na nudną, ale niezbędną biurokrację i poświęcić go więcej na pilnowanie porządku. Keel powiedział, że używanie tych programów oszczędza mu 6-8 godzin pracy tygodniowo. Podoba mu się także to, że są niezwykle łatwe w obsłudze, nie wymagają zdolności technicznych. Coraz więcej amerykańskich jednostek policyjnych eksperymentuje z AI. Eksperci ostrzegają jednak, że tego typu oprogramowanie nadal ma skłonność do tzw. halucynacji, a tworzone przez nie raporty trzeba dokładnie sprawdzać. Zauważają też, że konsekwencje mogą być bardzo poważne, jeśli np. raport z błędami zostanie użyty podczas sprawy sądowej. Jak zauważa portal Dexerto, w zeszłym roku system AI obsługujący monitoring podniósł alarm, bo wziął paczkę chipsów w rękach studenta za broń palną. W innym incydencie policjanci aresztowali niewinnego człowieka, bo analizująca nagrania z monitoringu AI była pewna, że to poszukiwany przestępca.
źr. wPolsce24 za Forbes, Vice











