Chat GPT zamiast wizyty w gabinecie lekarskim. Czy będziemy świadkami rewolucji w służbie zdrowia?

OpenAI uruchomił nowy model ChatGPT Health, przeznaczony do analizy danych związanych ze zdrowiem użytkowników. Narzędzie ma umożliwiać pracę na dokumentacji medycznej oraz udzielanie odpowiedzi dotyczących samopoczucia. Rozwiązanie jest już dostępne na rynku amerykańskim. Jego debiut wzbudził jednak liczne pytania wśród ekspertów. Wątpliwości dotyczą przede wszystkim ochrony danych wrażliwych. Dyskusję wywołał także zakres odpowiedzialności za informacje generowane przez algorytm. Twórcy podkreślają, że model ma wspierać użytkowników, a nie zastępować lekarzy.
Coraz więcej osób korzysta z modeli językowych, żeby się diagnozować
Z ChatGPT regularnie korzystają miliony osób, które pytają go o kwestie zdrowotne. Skala użycia sprawia, że temat ma realne znaczenie społeczne. Specjaliści zwracają uwagę, że tego typu narzędzia mogą wpływać na decyzje pacjentów. Właśnie dlatego pojawiają się postulaty wprowadzenia jasnych standardów. Kluczowe znaczenie ma certyfikacja rozwiązań opartych na sztucznej inteligencji. Bez niej użytkownik nie ma pewności co do jakości otrzymywanych odpowiedzi. Zdaniem ekspertów brak regulacji może prowadzić do poważnych nadużyć.
– Nawet jeśli twórca deklaruje, że nie wykorzystuje danych osobowych, nie mamy pewności, czy są one anonimizowane zgodnie z europejskim rozumieniem prawa – powiedziała Ligia Kornowska.
Ekspertka podkreśla, że narzędzia realnie wpływające na proces diagnozy powinny spełniać rygorystyczne wymogi. Modele wykorzystywane w medycynie muszą być traktowane jak wyroby medyczne. Tylko wówczas możliwa jest ocena ich skuteczności i bezpieczeństwa. W przypadku ChatGPT Health takich gwarancji obecnie nie ma.
W trakcie rozmowy pojawił się także temat zastępowania lekarzy przez sztuczną inteligencję. Zdaniem specjalistów w najbliższych latach taki scenariusz nie jest realny. Brak certyfikacji oznacza ryzyko uzyskania błędnych lub niepełnych informacji. Problemem pozostaje również niewiedza użytkowników dotycząca ograniczeń algorytmów. Część pacjentów może traktować odpowiedzi chatu jako wiążącą poradę medyczną. To z kolei może prowadzić do poważnych konsekwencji zdrowotnych.
Takie działania są w Polsce nielegalne
– Niebezpieczne jest sytuowanie czatu w roli narzędzia diagnostycznego lub sugerującego leczenie, bo takie działania są w Europie nielegalne – zaznaczyła Ligia Kornowska.
Istotnym wątkiem debaty pozostaje również ochrona danych wrażliwych użytkowników. Twórcy modelu deklarują stosowanie zabezpieczeń zgodnych z amerykańskimi regulacjami. Nie oznacza to jednak automatycznej zgodności z prawem europejskim. Eksperci ostrzegają, że dane przekazywane dużym modelom językowym mogą być przetwarzane poza pełną kontrolą użytkownika. W Europie szczególnie restrykcyjnie podchodzi się do kwestii diagnozy i leczenia. Sztuczna inteligencja może być pomocna w obszarach związanych ze stylem życia czy profilaktyką. Ostateczna odpowiedzialność za decyzje medyczne nadal spoczywa jednak na lekarzu.
źr. wPolsce24 za RMF24











