Deepfake’i i generatywna AI coraz częściej naruszają prywatność. UODO ostrzega: skarg będzie lawinowo przybywać, bo przepisy nie nadążają za technologią.
Fałszywe nagrania, generowane przez sztuczną inteligencję nagie zdjęcia, przypisywanie ludziom słów, których nigdy nie wypowiedzieli – to już nie scenariusze filmów, ale codzienność urzędów zajmujących się ochroną danych.
Urząd Ochrony Danych Osobowych (UODO) ostrzega: spraw będzie gwałtownie przybywać, bo obowiązujące przepisy często okazują się bezradne wobec możliwości nowych technologii.
Coraz więcej, coraz bardziej skomplikowanych spraw
Mirosław Wróblewski, szef UODO, podkreśla, że do urzędu trafia coraz więcej zgłoszeń dotyczących zastosowania narzędzi, które jeszcze kilka lat temu nie były powszechnie używane. Chodzi m.in. o biometrię, szyfrowanie, systemy automatycznej analizy danych czy generatywną sztuczną inteligencję.
– Należy się spodziewać wzrostu skarg związanych z wykorzystaniem nowych technologii. Widzimy to już obecnie. Co więcej, wpływa do nas coraz więcej spraw bardzo skomplikowanych – zaznacza.
Jak dodaje, wyzwania te nie są już wyłącznie prawne. Coraz częściej wymagają wiedzy technologicznej i etycznej, a to oznacza potrzebę wzmacniania kompetencji instytucji państwowych.
Dramat uczennicy i luka w systemie
Jednym z przykładów, na który powołuje się prezes urzędu, jest sprawa 15-latki. Jej wizerunek został użyty do wygenerowania przez AI obrazu nagiej osoby, a następnie materiał był rozpowszechniany w szkole i wśród znajomych.
Na początku czerwca 2025 roku prezes UODO zawiadomił policję o możliwości popełnienia przestępstwa. Wskazywał, że działania sprawców w oczywisty sposób naruszyły prywatność nastolatki i mogą mieć poważne konsekwencje dla jej przyszłości, m.in. ze względu na wysokie prawdopodobieństwo identyfikacji.
Mimo to odmówiono wszczęcia postępowania. Uznano m.in., że zdjęcie nie zostało pozyskane z chronionego zbioru danych, a jego przerobienie nie stanowi przetwarzania danych osobowych. Decyzję tę zatwierdziła prokuratura.
Dopiero po dalszych interwencjach, w styczniu tego roku, prokuratura poinformowała o ponownym podjęciu sprawy.
– To sprawa bardzo krzywdząca dla tej dziewczyny. Teoretyczne rozważania, że istnieją przepisy, które pozwalają na ściganie takich niegodnych zachowań, dowodzą tego, że potrzebne są tego typu rozwiązania – zaznacza Wróblewski.
W ocenie prezesa UODO pokazuje to wyraźnie, że teoretyczne istnienie przepisów nie zawsze przekłada się na realną możliwość ochrony pokrzywdzonych.
Europa próbuje reagować
Na poziomie unijnym wprowadzane są kolejne regulacje. Digital Services Act ma zobowiązywać duże platformy internetowe do oceny i ograniczania ryzyk systemowych. Z kolei AI Act w art. 50 nakazuje oznaczanie treści syntetycznych wytworzonych przy użyciu sztucznej inteligencji.
Problem w tym, że – zdaniem prezesa urzędu – to wciąż może być za mało. Użytkownicy potrafią omijać zabezpieczenia, a pomysłowość w wykorzystywaniu technologii często wyprzedza ustawodawcę.
26 stycznia tego roku Komisja Europejska wszczęła postępowanie wobec platformy X. Ma ono sprawdzić, czy serwis prawidłowo ocenił i zminimalizował zagrożenia wynikające z działania chatbota Grok. Wśród analizowanych kwestii są m.in. zmanipulowane materiały o charakterze seksualnym, również takie, które mogą dotyczyć dzieci.
Skala rośnie szybciej niż przepisy
Z raportu WeProtect oraz danych systemu CyberTipline wynika, że między 2023 a 2024 rokiem liczba zgłoszeń związanych z generatywną sztuczną inteligencją wzrosła o 1325 proc. To pokazuje, jak dynamicznie przybywa zagrożeń.
Organizacje często żyją w błędnym przekonaniu
UODO zwraca też uwagę na problem świadomości. Z jego „Raportu strategicznego” wynika, że 41 proc. z blisko 500 badanych organizacji uważa, że rozwój lub wykorzystanie AI nie wiąże się u nich z przetwarzaniem danych osobowych albo nie potrafią tego ocenić.
Największe luki widoczne są m.in. w samorządach, edukacji, ochronie zdrowia, kulturze oraz wśród mniejszych przedsiębiorców. Choć wielu deklaruje znajomość obowiązków wynikających z RODO, praktyczne dostosowanie do przepisów okazuje się trudne.
Fałszywe informacje tworzone przez maszyny
Kolejnym wyzwaniem są tzw. halucynacje AI. Systemy potrafią generować bardzo przekonujące, lecz nieprawdziwe informacje o ludziach. Mogą one prowadzić do manipulacji, dezinformacji czy naruszenia dobrego imienia, a późniejsze odkręcenie skutków bywa niezwykle trudne.
W opinii prezesa urzędu bez zmian systemowych liczba podobnych przypadków będzie rosła. Rozwój technologii oznacza konieczność budowania nowych mechanizmów odpowiedzialności – zarówno po stronie twórców narzędzi, jak i platform, na których treści są publikowane.







Napisz komentarz
Komentarze