Potrzebujemy prawa, które ochroni na przed wpływem deepfake'ów. Prezes UODO nie ma złudzeń

3 tygodni temu 27

Potrzeba nam przepisów chroniących przed deepfake'ami generowanymi przez AI

Prezes UODO - jak czytamy w czwartkowej informacji Urzędu - zwrócił się do ministra cyfryzacji Krzysztofa Gawkowskiego o wprowadzenie do polskiego porządku prawnego przepisów, które będą chronić osoby prywatne m.in. przed fałszywymi treściami generowanymi przez sztuczną inteligencję oraz umożliwią pociągnięcie do odpowiedzialności tych, którzy rozpowszechniają treści w postaci deepfake’ów.

Szef UODO zapewnił, że zmiany prawne są konieczne, gdyż technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są. „Sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę” - napisał.

Wśród zagrożeń, jakie niesie ze sobą technologia deepfake prezes UODO wymienił wykorzystywanie wizerunku danej osoby bez jej wiedzy i zgody oraz kradzież tożsamości (ułatwia podszywanie się pod inne osoby). „Technologia ta może posłużyć także do szantażu i nękania, gdyż umożliwia ukazanie osoby w sytuacjach, które w rzeczywistości nie miały miejsca” - czytamy w komunikacie.

Deepfake'i mogą szkodzić przeprowadzaniu procesów sądowych

Prezes UODO zwrócił uwagę, że deepfake'i mogą służyć również do preparowania dowodów sądowych oraz stanowić zagrożenie dla bezpieczeństwa narodowego lub bezpieczeństwa systemów informacji podmiotów publicznych i prywatnych. Dodał, że deepfake może być wykorzystywany do manipulacji politycznej (w szczególności podczas prowadzenia kampanii wyborczych), polaryzacji społecznej, zamieszek czy konfliktów z użyciem przemocy.

Inny przykładem nadużywania technologii może być omijanie systemów bezpieczeństwa, takich jak systemy uwierzytelniania biometrycznego. „W to wszystko wpisuje się również kontekst różnych form ataków ze strony Federacji Rosyjskiej” - napisano w informacji UODO.

Prezes Urzędu przywołał też przypadki dotychczas zgłaszanych mu nadużyć spowodowanych stosowaniem technologii deepfake. Wśród nich jest np. zamieszczenie na portalach społecznościowych fałszywych informacji dotyczących znanej dziennikarki (np. o jej śmierci, pobiciu przez męża czy uwięzieniu jej). W tej sprawie prezes UODO wydał na podstawie RODO zakaz przetwarzania danych na trzy miesiące, ponieważ tyle wynosi maksymalny termin przewidziany prawem. Postępowanie w tej sprawie prowadzi irlandzki organ nadzorczy.

Wykorzystywanie wizerunku do tworzenie deepfake'ów staje się coraz częstsze. Potrzebujemy regulacji

Inny przykład deepfake to wygenerowanie przez uczniów szkoły podstawowej fałszywego zdjęcia nagiej koleżanki. W tej sprawie prezes UODO zawiadomił policję o możliwości popełnienia przestępstwa, jednak - czytamy w informacji - „Policja odmówiła zajęcia się sprawą”.

Ponadto - jak czytamy - do UODO trafiają sygnały od lekarzy, których wizerunki i autorytet zostały wykorzystane w nieprawdziwych reklamach, w których medycy rzekomo zachęcali do przyjmowania określonych preparatów.

Prezes UODO zaznaczył, że żadna z obowiązujących regulacji prawnych nie zapewnia narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, np. poprzez szybkie usuwanie nielegalnych materiałów. Tymczasem skutki tych nadużyć we współczesnym świecie, zdominowanym przez internet i media społecznościowe, są niezwykle dotkliwe, identyfikowanie twórców deepfake’ów często bardzo utrudnione, a procedury sądowe trwają zbyt długo.

Prezes UODO przedstawił w wystąpieniu do Ministra Cyfryzacji przykładowe rozwiązania prawne, które wprowadzają niektóre państwa. Na przykład Dania przygotowuje projekt nowelizacji prawa autorskiego, dzięki czemu obywatele mogliby żądać usunięcia deepfake’ów z platform online oraz dochodzić odszkodowania za naruszenia.

Zasugerował też wzięcie pod uwagę zobowiązania platform technologicznych/internetowych/społecznościowych do instalowania systemów automatycznego i skutecznego wykrywania oraz oznaczania deepfake’ów. Pomocnym rozwiązaniem - według prezesa Wróblewskiego - mogłoby być również wypracowanie standardów oraz dobrych praktyk w zakresie weryfikacji autentyczności treści, oznaczania fałszywych materiałów czy reagowania na zgłoszenia użytkowników.

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję

Dalszy ciąg materiału pod wideo

Przeczytaj źródło