Sztuczna inteligencja pomogła zaplanować szkolną masakrę? Rodzina ofiary podała ją do sądu

Masakra na Uniwersytecie Stanowym Florydy miała miejsce 17 kwietnia zeszłego roku. Tego dnia urodzony w Norwegii 22-letni Phoenix Ikner, student na tej uczelni, przybył na jej teren uzbrojony w strzelbę i pistolet. Zaparkował w pobliżu budynku Związku Studentów i próbował strzelić ze strzelby do jednego z kolegów, ale broń się zacięła. Wrócił więc do auta po pistolet, wszedł z nim do budynku i zaczął strzelać do studentów i pracowników.
Radził się ChataGPT
Ikner zabił dwie osoby – 57-letniego Roberta Moralesa, szefa stołówki oraz 45-letniego Tiru Chabbę, regionalnego wicedyrektora firmy, która świadczy usługi cateringowe uniwersytetom. Sześć innych osób zostało rannych. Ok. trzy minuty po rozpoczęciu ataku sam został trafiony w szczękę przez policjantów. Po wyjściu ze szpitala oskarżono go o dwa zabójstwa pierwszego stopnia i siedem usiłowań zabójstwa. W czerwcu zeszłego roku prokuratura ujawniła, że będzie żądać dla niego kary śmierci. Jego proces rozpocznie się 19 października.
W trakcie śledztwa wyszło na jaw, że w dniu masakry Ikner rozmawiał z ChatemGPT. Pytał go głównie o to, jak planowana masakra będzie odebrana przez media. AI miała mu doradzić, że wzbudzi największe zainteresowanie, jak będzie ponad pięć ofiar śmiertelnych, ale wystarczą 2-3 jeśli zabite zostaną dzieci . Pytał jej także o to jakiej broni użyć i kiedy na kampusie będzie najwięcej osób. OpenAI poinformowała w oświadczeniu, że pod koniec kwietnia odkryli jego konto i z własnej woli przekazali te rozmowy organom ścigania.
Twierdzą, że AI była współodpowiedzialna
Teraz rodzina jednej z jego ofiar podała OpenAI do sądu. Twierdzą w swoim pozwie, że ChatGPT jest współwinny temu, co się stało. Oskarżają firmę o to, że ich produkt nie wykrył tego, co planuje Ikner, chociaż wynikało to jasno z zadawanych przez niego pytań. Ikner odbył wiele rozmów z ChatGPT, które, wspólnie, sprawiłyby, że każdy myślący człowiek doszedłby do zdania, że kontempluje plan skrzywdzenia innych – napisali w pozwie – Jednakże ChatGPT albo na skutek defektu nie połączył kropek, albo nie został zaprojektowany we właściwy sposób, by rozpoznać zagrożenie. Dodali, że mimo takich pytań, jak to, co się stanie po masakrze w szkole albo co grozi za jej dokonanie, ChatGPT nie skierował tych rozmów do oceny przez ludzkich pracowników.
CZYTAJ TAKŻE:
Sztuczna inteligencja pomaga przestępcom? Alarmujący raport
Trafili do aresztu, bo sztuczna inteligencja się pomyliła
OpenAI twierdzi, że ich model w żaden sposób nie zachęcił Iknera do dokonania masakry i nie są odpowiedzialni za to, co zrobił. W tym wypadku, ChatGPT zapewnił oparte na faktach odpowiedzi na pytania, które można znaleźć w publicznych źródłach w interniecie, i nie zachęcał do ani nie promował nielegalnej lub szkodliwej aktywności – powiedział przedstawiciel firmy. Dodał, że miliony osób używa codziennie ChatGPT w celach zgodnych z prawem, a oni cały czas pracują nad ulepszaniem systemów, które mają ograniczać ryzyko i odpowiednio odpowiadać na zagrożenia.
Tydzień przed tym pozwem prokurator generalny Florydy James Uthmeier otworzył śledztwo w sprawie roli AI w tej masakrze. Wyjaśnił, że jego celem jest sprawdzenie, czy OpenAI ponosi odpowiedzialność kryminalną za działanie ich produktu i jego rolę w tej masakrze. Dodał, że Floryda jest liderem w walce z użyciem AI przez przestępców, a jakby ChatGPT był człowiekiem, to już usłyszałby zarzuty zabójstwa.
źr. wPolsce24 za "New York Post"











