Pierwsze państwo przyjęło przepisy regulujące AI. Nikomu się nie podobają

Korea Południowa mocno stawia na rozwój AI i ma ambicję, by rywalizować na tym polu z USA i Chinami. Równocześnie jednak AI jest w tym kraju trudnym tematem.
Już w 2023 roku raport amerykańskiej firmy Security Hero stwierdził, że 53% ofiar pornograficznych deep fake'ów na całym świecie to Koreańczycy. Korea Południowa od dawna zmaga się z plagą molka – robionych bez wiedzy i zgody ofiar nagrań i zdjęć o charakterze seksualnym, które trafiają potem do internetu. Nic więc dziwnego, że możliwość zrobienia takich treści z niewinnego zdjęcia czy nagrania budzi w tym kraju zrozumiały lęk.
Władze w Seulu już w 2020 roku podjęły próbę uregulowania AI, ale nie udało im się osiągnąć porozumienia.
Jasno oznaczą treści
Nowe przepisy, które weszły w życie w zeszłym tygodniu, zawierają trzy kluczowe elementy. Pierwszym są tzw. znaki wodne. Firmy, które świadczą usługi AI, będą musiały nimi oznaczać treści przez nie generowane. W wypadku treści takich, jak kreskówki czy „sztuka”, ten znak musi być umieszczony w pliku. W wypadku realistycznie wyglądających zdjęć czy nagrań musi być od razu widoczny.
Nowe prawo reguluje też wykorzystanie AI w ważnych zastosowaniach, jak diagnozy medyczne, zatrudnianie pracowników czy zgoda na udzielenie pożyczki. W tym wypadku operatorzy będą musieli dokonać oceny ryzyka i prowadzić dokumentację tego, w jaki sposób AI podejmuje decyzję.
Ostatnim elementem jest to, że na uruchomienie „ekstremalnie silnych” modeli AI potrzebna będzie zgoda rządu. Rząd jednak przyznaje, że w tym wypadku próg ustawiono na tyle wysoko, że żaden z obecnie istniejących modeli AI nie spełnia jeszcze warunków. Firmom, które nie zastosują się do tych przepisów, grozi grzywna w wysokości do 30 mln wonów (ok. 74 tys. złotych), ale rząd obiecuje, że zacznie karać za to dopiero za rok, by dać firmom czas na dostosowanie się.
Branża narzeka
Przedstawiciele koreańskiej branży AI nie ukrywają, że te przepisy im się nie podobają. Grudniowy sondaż wykonany przez organizację Startup Alliance pokazał, że 98% koreańskich startupów AI nie jest gotowa na spełnienie tych warunków. Jej współprzewodniczący Lim Jung-wook przyznał, że branża jest tym sfrustrowana. - Jest trochę niechęci. Dlaczego musimy być pierwsi? - powiedział.
Firmy martwią się tym, że te przepisy, które ich zdaniem są często niejasne, zaszkodzą innowacji. Nie podoba im się też to, że dotyczą wszystkich koreańskich firm, ale tylko największych zagranicznych.
Aktywiści też
Równocześnie wiele organizacji pozarządowych uważa, że rząd nie poszedł wystarczająco daleko. Już wcześniejsze próby regulacji rynku AI zakończyły się porażką, bo ich krytycy oskarżali rząd o to, że stawia interesy firm nad interesami obywateli. Cztery organizacje, w tym Minbyun – organizacja prawników specjalizujących się w prawach człowieka – napisały we wspólnym oświadczeniu, że to prawo chroni użytkowników, jak np. szpitale, instytucje publiczne czy firmy, które korzystają z AI, ale już nie ofiary sztucznej inteligencji. Zwracają też uwagę, że jest w nim wiele znaczących furtek. Na przykład ograniczenia dotyczące ważnych zastosowań AI można obejść, jeśli ostateczną decyzję podejmie człowiek.
Także komisja praw człowieka skrytykowała te przepisy. Nie podoba im się to, że w nowym prawie brakuje jasnych definicji tego, co jest ważnym zastosowaniem AI, każda firma będzie musiała ustalić to sama. Podobnie jak aktywiści, uważa także, że nie chroni wystarczająco ofiar AI.
Alice Oh, profesor informatyki z Koreańskiego Zaawansowanego Instytutu Nauki i Technologii przyznała, że to prawo jest niedoskonałe, ale stwierdziła, że intencja jest taka, że będzie ewoluować, nie szkodząc rozwojowi nowej technologii. Ministerstwo Nauki napisało w oświadczeniu, że chce, by nowe przepisy zniosły prawną niepewność i stworzyły zdrowy i bezpieczny krajowy ekosystem AI. Obiecało, że wszelkie niejasności będą przez nich na bieżąco wyjaśniane.
źr. wPolsce24 za "Guardian"











