Alerty generowane przez sztuczną inteligencję poinformowały o samobójstwie. Poważny błąd w telefonach Apple
Największym problemem były tzw. halucynacje sztucznej inteligencji, czyli sytuacje, w których system generuje fałszywe lub nieprawdziwe informacje. Przykładem była sytuacja, gdy alert wygenerowany przez AI błędnie poinformował, że Luigi Mangione, oskarżony o zabójstwo dyrektora generalnego United Healthcare, popełnił samobójstwo. Takie przypadki zszokowały użytkowników i podważyły zaufanie do funkcji.
Organizacje dziennikarskie, takie jak BBC czy Reporterzy bez Granic (RSF), nie szczędziły słów krytyki. RSF podkreśliło, że „innowacje nigdy nie mogą odbywać się kosztem prawa obywateli do otrzymywania rzetelnych informacji”. BBC, które złożyło oficjalną skargę w grudniu, zwróciło uwagę, że funkcja może dodatkowo pogłębiać problem dezinformacji, podważając zaufanie do mediów. Co ciekawe bowiem nagłówki generowane przez AI były właśnie firmowane nazwami konkretnych mediów, właśnie takich jak wspomniane BBC.
Wycofanie i zapowiedź zmian
W obliczu narastającej presji Apple ogłosiło zawieszenie tej funkcji w najnowszych wersjach systemów iOS, iPadOS oraz macOS. „Pracujemy nad udoskonaleniami i udostępnimy je w przyszłej aktualizacji oprogramowania” – poinformował rzecznik firmy. Tymczasem generowane przez AI podsumowania w innych aplikacjach będą wyświetlane w formie tekstu pisanego kursywą, co ma ułatwić ich identyfikację.
Wyścig technologiczny kosztem jakości?
Eksperci, w tym Jonathan Bright z Instytutu Alana Turinga, zwracają uwagę, że presja na szybkie wprowadzanie innowacji w sektorze technologicznym prowadzi do sytuacji, w których produkty są niedopracowane. „Firmy technologiczne chcą być pierwsze, ale halucynacje AI to poważny problem, którego rozwiązanie wymaga nadzoru człowieka” – podkreślił Bright.
Wnioski na przyszłość
Choć Apple podjęło kroki wstecz, historia ta pokazuje, jak ryzykowne mogą być próby automatyzacji w obszarze tak wrażliwym jak informacja. Innowacje technologiczne powinny być narzędziem budowania zaufania, a nie jego niszczenia. Jak wskazuje BBC, kluczowe jest teraz, aby Apple współpracowało z mediami nad poprawą funkcji i wprowadzeniem skutecznych mechanizmów kontroli jakości.
To lekcja dla całego sektora technologicznego: AI może być narzędziem przyszłości, ale musi być stosowana z rozwagą i odpowiedzialnością. I chyba nie jest jeszcze aż tak rozwinięta, jak się to nam często przedstawia.
źr. wPolsce24 za bbc.com