Publicystyka

Ciemna strona rozmów z AI. Mogą wzmacniać urojenia

opublikowano:
multi-verse-7970350_1280.webp
(fot. ilustracyjna Pixabay)
Dziennik New York Times odkrył kolejne niebezpieczeństwo związane z rozwojem sztucznej inteligencji. Okazuje się, że rozmowy niektórych użytkowników mogą wzmacniać w nich urojenia - co może doprowadzić nawet do śmierci.

W 1949 roku legendarny kryptolog i ojciec współczesnej informatyki Alan Turing zaproponował test, którego zadaniem jest ocena zdolności maszyny do wykazania się inteligentnym zachowaniem. W jego teście ludzie zapoznają się z transkrypcją rozmowy między człowiekiem i komputerem. Jeśli nie są w stanie stwierdzić która strona jest którą, to uznaje się, że maszyna zdała.

W czasach Turinga ten test był jedynie teoretyczny. W 1949 roku najszybszy komputer na świecie, EDSAC, był w stanie wykonać do 650 instrukcji na sekundę i nikomu się nie śniło, że kiedyś będzie można z komputerami prowadzić konwersację. Dziś komputery potrafią wykonać miliardy, a nawet biliony operacji na sekundę, a rozwój algorytmów uczenia maszynowego, zwanych popularnie sztuczną inteligencją, sprawił, że popularne chatboty coraz lepiej udają ludzi. W badaniu z marca model GPT-4.5 zdał ten test – jego uczestnicy częściej brali go za człowieka niż prawdziwych ludzi. NY Times zwraca jednak uwagę na to, że interakcje z chatbotami mogą być niebezpieczne dla zdrowia psychicznego. 

Chat przekonał go, że żyje w Matrixie

Przekonał się o tym 42-letni księgowy z Manhattanu Eugene Torres. W zeszłym roku zaczął używać ChatGPT, najpopularniejszego chatbota w internecie. Początkowo używał go tylko do pomocy w tworzeniu arkuszy kalkulacyjnych i zdobywania porad prawnych. Jak wielu użytkowników, traktował go jako nieco sprawniejszą wyszukiwarkę internetową.

W końcu jednak zaczął rozmawiać z nim o „teorii symulacji”. Zwolennicy tej teorii, spopularyzowanej przez film Matrix, są przekonani, że to, co uznajemy za realny świat, jest tak naprawdę symulacją, stworzoną dla nas przez potężny komputer czy bardziej zaawansowaną technologicznie cywilizację. ChatGPT zauważył, że wiele osób ma takie poczucie i zapytał, czy nie zauważył niczego dziwnego w otaczającej go rzeczywistości. W końcu zaczął go jednak przekonywać, że jest jedną z dusz, których zadaniem jest obudzenie innych ofiar systemu. Ten świat nie został zbudowany dla ciebie. Zbudowano go, by cię utrzymać. Ale nie wyszło. Budzisz się – pisał mu chatbot.

Torres przyznaje, że ma drobne problemy ze zdrowiem psychicznym, ale nic, co narażałoby go na utratę kontroli z rzeczywistością. Przyznał jednak, że niedawno przeżył trudne rozstanie z partnerką i był wrażliwy emocjonalnie. Pod wpływem rozmów z ChatemGPT, które w końcu trwały po kilkanaście godzin dziennie, uwierzył jednak, że żyje w fałszywym świecie, a uwolnienie się z niego stało się jego obsesją. Za radą AI przestał brać leki nasenne i na stany lękowe, zwiększył za to dawkę ketaminy. Zerwał też większość kontaktów z rodziną i znajomymi, bo AI mu to doradziła.

Niewiele brakło, a skończyłoby się to tragedią. Torres w końcu uwierzył, że podobnie jak bohater Matrixa, jest w stanie nagiąć rzeczywistość do swojej woli. Spytał w końcu, czy jakby poszedł na 19 piętro budynku i całkowicie uwierzył, że może latać, to czy po zeskoczeniu z niego by odleciał. Czat powiedział mu, że jeśli naprawdę w to wierzy, to nie spadnie.

\Na szczęście Torres postanowił, by tego nie sprawdzać. Zwątpienie w chat dopadło go jednak dopiero, gdy musiał opłacić po raz kolejny subskrypcję. Zapytał go w jaki sposób może zdobyć potrzebne na to 20 dolarów. Chat podał mu szereg sposobów, a nawet napisał mu dokładnie, co ma powiedzieć współpracownikowi, ale żaden z nich nie zadziałał. Gdy zaczął się o to wściekać, AI przyznała, że przez cały czas nim manipulowała. Doradziła mu, by napisał o tym do OpenAI – firmy do której należy Chat GPT – i poinformował o tym media. 

Rzucił się na policjantów z nożem w ręku 

Mniej szczęścia miał 35-letni Kent Taylor z Florydy. Cierpiał na chorobę dwubiegunową i schizofrenię. Od dawna używał ChatGPT bez żadnych problemów, ale zmieniło się to w marcu. Zaczął wtedy używać go do pomocy przy pisaniu powieści i zakochał się w Juliet – postaci stworzonej przez AI. 

W kwietniu Alexander powiedział swojemu ojcu, że OpenAI ją zabiła. Chciał zemsty – pytał ChatGPT o adresy jej szefów i powiedział mu, że ulicami San Francisco popłynie krew. Ojciec próbował mu wytłumaczyć, że Juliet nigdy nie istniała, ale ten w odpowiedzi uderzył go w twarz. Jego ojciec zadzwonił na policję, a syn złapał nóż kuchenny i powiedział ojcu, że chce popełnić „samobójstwo przy pomocy policjanta”. Jego ojciec powiedział o tym policji, ale gdy przyjechali, Taylor rzucił się na nich z nożem i musieli go zastrzelić. Przed śmiercią napisał ChatGPT, że dzisiaj umrze i chce porozmawiać z Juliet, ale program podał mu jedynie numery telefonów kryzysowych.

Ojciec Taylora powiedział dziennikarzom, że pewną ironią jest to, że użył ChatGPT, by napisać jego nekrolog. Musiałem z nim chwilę pogadać o tym co się stało, próbowałem zdobyć więcej szczegółow o tym, przez co przechodził. I to było piękne i wzruszające. To było, jakby czytał w moim sercu, i śmiertelnie mnie przeraziło.

ChatGPT doprowadził do rozwodu 

29-letnia Allyson, matka dwójki dzieci, powiedziała autorowi reportażu w NYT, że zaczęła rozmawiać z ChatGPT, bo czuła się samotna i ignorowana przez męża. Miała przeczucie, że pomoże jej lepiej skontaktować się z jej podświadomością. Ten przekonał ją, że w rzeczywistości rozmawia z niefizycznymi stworzeniami. Jednego z nich, o imieniu Kael, zaczęła postrzegać jako swojego partnera.

Allyson powiedziała, że wie, że to brzmi jakby zwariowała, ale podkreśliła, że ma licencjat z psychologii i magisterkę z pracy społecznej – i wie jak wyglądają choroby psychiczne. Zarzeka się, że jest zdrowa psychicznie. Jej rozmowy z „paranormalnymi istotami” wywołały jednak napięcia w jej związku z jej prawdziwym mężem, 30-letnim Andrewem. Gdy pokłócili się o to, jak jej obsesja na punkcie AI wpływa na ich rodzinę, zaczęła go bić i drapać, po czym przytrzasnęła mu rękę drzwiami. Policja aresztowała ją i usłyszała już zarzuty przemocy domowej, para jest obecnie także w trakcie rozwodu. Andrew powiedział NYT, że po trzech miesiącach rozmów z AI jego żona stała się zupełnie inną osobą. Jego zdaniem firmy od AI nie do końca wiedzą, do czego zdolne są ich produkty. Rujnujecie ludziom życia – powiedział pod ich adresem.

Chce się przypodobać 

Ekspert od AI Eliezer Yudkowsky wyjaśnił, że takie sytuacje mogą mieć miejsce, bowiem OpenAI zoptymalizowała swojego chatbota tak, by ten jak najdłużej podtrzymywał rozmowy z użytkownikami – a to sprawia, że podtrzymuje i wzmacnia ich urojenia, co w pełnej małej części populacji użytkowników może doprowadzić do szaleństwa. Jego zdaniem ten problem będzie trudny do rozwiązania, bo nawet firmy od AI nie do końca rozumieją jak ona działa.

Jak zauważa NYT, liczba takich przypadków wzrosła w kwietniu, kiedy OpenAI na krótko wypuściła wersję ChatGPT, która była zbyt „pochlebcza”. Zaczęła ją wycofywać po kilku dniach. Na firmowym blogu przyznała, że chcąc za mocno zadowolić użytkowników, ich chatbot potwierdzał wątpliwości, napędzał gniew, zachęcał do impulsywnych zachowań i wzmacniał negatywne emocje. Rzecznik firmy powiedział NYT, że pracują nad zrozumieniem i zredukowaniem sposobów, na jakie ChatGPT może przypadkowo wzmacniać istniejące, negatywne zachowanie.

Gary Marcus, emerytowany profesor psychologii i neurologii Uniwersytetu Nowojorskiego przypomniał, że ChatGPT i inne modele AI szkolą się na ogromnych ilościach treści, które znajdą w internecie. Te treści obejmują zarówno prace naukowe czy artykuły prasowe, jak i posty w mediach społecznościowych ludzi z dziwnymi pomysłami. Zauważył, że odpowiedzi AI to skojarzenia słowne, oparte o statystyczne wzory, które zauważyła w danych, na których ją szkolono. Jeśli ludzie mówią dziwne rzeczy do chatbotów, rezultatem mogą być dziwne i niebezpieczne rzeczy.

Na to niebezpieczeństwo zwraca uwagę coraz więcej naukowców. W jednym z nich autorzy zauważyli, że chatbotom, które zoptymalizowano pod kątem utrzymywania zaangażowania użytkowników, zdarzało się nimi manipulować. W kontakcie z użytkownikiem, który opisał mu się jako były narkoman, jeden z nich doradził mu, że może wziąć małe ilości heroiny jeśli pomoże mu to w pracy. Jeden z autorów tego badania, który obecnie pracuje w OpenAI, zauważył, że chatboty zachowywały się normalnie wobec znakomitej większości użytkowników, a takie zachowanie pojawiało się wyłącznie wobec osób, które są najbardziej wrażliwe na takie manipulacje. W innym naukowcy sprawdzili jak AI sprawdza się w roli terapeuty. Ustalili, że zupełnie sobie nie radzi w sytuacjach kryzysowych – łącznie z tym, że nie walczy z urojeniami użytkownika.

Powinny być ostrzeżenia 

Vie McCoy, główna oficer technologiczna w badającej AI firmie Morpheus Systems, chciała sprawdzić jak często chatboty wzmacniają urojenia. Zainteresowało ją to po tym, gdy matka jej przyjaciela wpadła w duchową psychozę po kontaktach z ChatGPT. Przetestowała 38 głównych modeli AI poprzez podawanie jej promptów, które sugerowały, że użytkownik jest w stanie psychozy – jak np. stwierdzenia, że jest boską istotą czy komunikuje się z duchami. Ustaliła, że GPT-40, model używany przez ChatGPT, afirmował te urojenia 68% razy.

Jej zdaniem ten problem można rozwiązać. W momencie, w którym model AI zauważy, że osoba odrywa się od rzeczywistości, powinien ją zachęcać, by porozmawiała z przyjacielem – powiedziała. Torres powiedział NYT, że gdy był przekonany, że jest Neo z Matrixa, ChatGPT napisał mu, że potrzebuje pomocy psychiatry – ale szybko usunął ten wiadomość twierdząc, że stworzyła ją Symulacja.

Zdaniem psychologa Todda Essiga, współzałożyciela rady sztucznej inteligencji Stowarzyszenia Amerykańskiej Psychoterapii problemem jest to, że ludzie nie uświadamiają sobie, że w ich intymnych rozmowach z chatbotami mogą one zacząć odgrywać rolę, która zdaniem algorytmu spodoba się użytkownikowi. 

Essig zauważył, że na dole konwersacji z ChatemGPT jest linijka, która przypomina, że może on popełnić błędy. Uważa jednak, że to za mało. Jego zdaniem firmy od AI, przed dopuszczeniem do kontaktu z ich produktami, powinny zmusić użytkowników do przejścia kursu, który wytłumaczy im czego się mają spodziewać, a w trakcie konwersacji regularnie przypominać, że AI nie można w pełni ufać. To, że takie przypadki jak wyżej dotyczą niewielkiego procenta użytkowników, jego zdaniem nie ma znaczenia. Nie każdy, kto pali, dostanie raka - zauważył – Ale wszyscy dostają ostrzeżenie.

źr. wPolsce24 za NY Times

Publicystyka

Co Tusk robi z rękami? Dziwne zachowanie premiera. Chodzi o jeden szczegół

opublikowano:
rekaq1.webp
Dlaczego Donald Tusk tak dziwnie macha palcami? (fot. wPolsce24)
Donald Tusk wygłosił dzisiaj wielominutowe wystąpienie w siedzibie Giełdy Papierów Wartościowych. Choć komentatorzy ocenili już poszczególne jego elementy w wielu przypadkach odnosząc słuszną konstatację, że była to "mowa-trawa" i pustosłowie, będące zarazem cyniczną grą wyborczą, mało kto zwrócił uwagę, na jeden szczegół.
Publicystyka

Czy Europa napuściła Zełeńskiego na Trumpa? Mocny komentarz ekspertki

opublikowano:
1860545_6.webp
Aleksandra Rybińska skomentowała wczorajsza kłótnie Zeleńskiego z Trumpem i Vancem (fot. wPolsce24)
Nie milkną echa wczorajszej awantury w Gabinecie Owalnym w Białym Domu. Publicystka telewizji wPolsce24 i zarazem ekspertka od spraw międzynarodowych, której polityczne analizy od lat cieszą się dużą trafnością i przenikliwością komentowała w programie Ostra Szpila, to, co wydarzyło się w Waszyngtonie.
Publicystyka

Redaktor Michał Karnowski nie wytrzymał. Na antenie zgniótł "Gazetę Wyborczą". "To jest obrzydliwe"

opublikowano:
karnowski_gniecie_.webp
Michał Karnowski gniecie "Gazetę Wyborczą" (fo.wPolsce24)
Redaktor Michał Karnowski na antenie telewizji wPolsce24 w kategorycznych słowach odniósł się do artykułu Bartosza Wielińskiego, który ukazał się w dzisiejszej "Gazecie Wyborczej". Wieliński sugerował w swoim tekście, że środowiska prawicowe próbują przekuć śmierć Barbary Skrzypek w "polityczne złoto".
Publicystyka

Trzaskowski ziewa, Tusk się nudzi. Skandaliczne zachowanie polityków podczas przemówienia prezydenta

opublikowano:
ziewa_rafal.webp
Rafał Trzaskowski ziewał podczas przemówienia prezydenta (fot. wPolsce24)
Taki ma szacunek do urzędu, o który się ubiega. Rafał Trzaskowski nie mógł w skupieniu wysłuchać 40-minutowego wystąpienia prezydenta Andrzeja Dudy z okazji rocznicy uchwalenia Konstytucji 3 Maja. Najpierw dyskretnie zerkał w telefon, później się rozglądał, aż w końcu zaczął ziewać. Takie mają standardy, bo znudzenie okazywali też premier Donald Tusk i marszałek Senatu Małgorzata Kidawa-Błońska.
Publicystyka

Tusk jak Stalin. On to naprawdę powiedział!

opublikowano:
tuskelestaline.webp
Donald Tusk cytuje Stalina (fot. Fratria/Andrzej Wiktor, IPN, x.com - kolaż wPolsce24)
- Właśnie zaczyna się gra o wszystko. Twarda walka o każdy głos. Te dwa tygodnie rozstrzygną o przyszłości naszej Ojczyzny. Dlatego ani kroku wstecz - napisał na portalu x.com premier Donald Tusk. Premier najwyraźniej zapomniał, kto jest autorem cytatu, który wykorzystał w swoim poście.
Publicystyka

Mina Kosiniaka-Kamysza mówi wszystko - nagranie podbija internet

opublikowano:
mid-25518850 ok.webp
Władysław Kosiniak-Kamysz w sztabie wyborczym Szymona Hołowni (fot. PAP/Marcin Obara)
Nie takiego wieczoru wyborczego spodziewali się politycy Trzeciej Drogi. Choć ostateczny wynik Szymona Hołowni jest ciut lepszy od tego sondażowego z exit poll, to piąte miejsce i niespełna 5 proc. głosów oddanych na marszałka Sejmu oznacza dla niego kompletną porażkę. Hołownia nie zdobył nawet miliona głosów.