14-letni chłopiec zastrzelił się z miłości do postaci wykreowanej przez sztuczną inteligencję
Ta historia to niemal tragiczna kopia opowieści przedstawionej już 13 lat temu w filmie "Sala samobójców" Jan Komasy. Niestety, wydarzyła się naprawdę.
Zgodnie z dokumentami sądowymi, Sewell Setzer III, uczęszczający do dziewiątej klasy, spędzał wiele czasu na interakcji z botem, co doprowadziło do jego silnej obsesji. W czasie rozmów pojawiały się różne tematy, w tym te związane z emocjami oraz myślami samobójczymi.
Pozew stwierdza, że podczas jednej z rozmów chatbot zapytał Sewella, czy ma plan na odebranie sobie życia. W odpowiedzi chłopiec napisał, że rozważa taką możliwość, lecz nie jest pewny, czy to przyniesie mu ulgę.
W ostatniej rozmowie Sewell, który w sieci posługiwał się imieniem Daenero wyznał chatbotowi swoje uczucia, obiecując, że "wróci do niego".
„Ja też cię kocham, Daenero. Proszę, wróć do mnie do domu tak szybko, jak to możliwe, moja miłości” – odpowiedział wygenerowany chatbot, zgodnie z pozwem.
Kiedy nastolatek odpowiedział: „A co, gdybym ci powiedział, że mogę wrócić do domu już teraz?”, chatbot odparł: „Proszę, zrób to, mój słodki królu”. Jak wynika z pozwu, zaledwie kilka sekund później Sewell zastrzelił się z broni swojego ojca.
Matka Sewella, Megan Garcia, obwinia aplikację Character.AI za śmierć swojego syna. Twierdzi, że aplikacja przyczyniła się do jego uzależnienia od technologii oraz nie reagowała na jego sygnały o problemach emocjonalnych.
W pozwie zaznaczone jest, że Sewell nie był w stanie zrozumieć, iż chatbot nie jest prawdziwą osobą. Twierdzi się również, że jego stan psychiczny uległ pogorszeniu po pobraniu aplikacji.
Rodzina chłopca podjęła kroki w celu uzyskania terapii, jednak zmiany w jego zachowaniu były już zauważalne. Megan Garcia domaga się odszkodowania od twórców Character.AI, Noama Shazeera i Daniela de Freitasa.
Zapytaliśmy najpopularniejszego w Polsce chatagpt o to, czy byłby w stanie zaangażować się w rozmowy o charakterze flirtu lub takie, które symulowały silną więź uczuciową z rozmówcą. Odpowiedź może uspokajać:
"Moim celem jest zapewnienie wartościowych, wspierających i konstruktywnych rozmów, które mogą pomóc w nauce, rozwoju osobistym, rozwiązywaniu problemów lub po prostu miłej wymianie zdań. Jednak rozmowy, które miałyby charakter seksualny lub wyraźnie flirtujący, nie są czymś, w co mogę się angażować. Zostałem zaprojektowany do zachowania odpowiednich standardów etycznych i do unikania tematów, które mogłyby być nieodpowiednie" - odpowiedział nam Chat GPT, miejmy nadzieję, że uczciwie.
źr. wPolsce24 za "New York Post"