Gdy technologia rani – historia, która wydarzyła się naprawdę
W czerwcu 2025 r. Prezes Urzędu Ochrony Danych Osobowych złożył zawiadomienie do Policji w sprawie wygenerowania przez uczniów szkoły podstawowej realistycznego, nagiego wizerunku koleżanki z klasy przy użyciu aplikacji AI. Sprawa wstrząsnęła lokalną społecznością, ale jej znaczenie wykracza daleko poza mury jednej szkoły. Pokazuje, że technologia – choć pozornie neutralna – może stać się narzędziem przemocy. A prawo – jedyną tarczą, jaka jeszcze chroni dzieci przed upokorzeniem i krzywdą.
To nie tylko obraz – to konkretna osoba
W jednej z podwarszawskich szkół kilku uczniów wygenerowało za pomocą ogólnodostępnej aplikacji obraz koleżanki – w wersji, która nie pozostawiała wątpliwości: naga, seksualizowana, możliwa do rozpoznania. Zdjęcie rozesłano dalej, wśród innych uczniów. Nie był to fotomontaż w klasycznym sensie, ale sztucznie wygenerowany obraz. Tyle że nikt nie miał wątpliwości, kogo on przedstawia. I właśnie dlatego to, co się wydarzyło, było tak poważne.
Prezes UODO reaguje – i bardzo dobrze
Prezes UODO, po analizie materiałów, zgłosił sprawę organom ścigania. I dobrze. Bo tu nie chodzi tylko o złamanie zasad prywatności – ale o coś znacznie głębszego: godność, poczucie bezpieczeństwa, prawo dziecka do bycia traktowanym z szacunkiem.
Deepfake to też dane osobowe – i to wrażliwe
Często myślimy, że dane osobowe to imię, nazwisko albo PESEL. Ale prawo mówi inaczej – dane osobowe to wszystko, co pozwala nas rozpoznać. Wizerunek? Oczywiście. Nawet jeśli jest cyfrowo zmieniony, sztuczny, zniekształcony – jeśli pozwala zidentyfikować konkretną osobę, to wciąż jest daną osobową. Trybunał Sprawiedliwości Unii Europejskiej potwierdził to już dawno temu – w sprawie Nowak (C-434/16), gdzie stwierdzono, że również subiektywnie opracowane informacje mogą być danymi osobowymi. I to się idealnie odnosi do deepfake’ów.
Prawo jest po stronie ofiary
Co mówi prawo? RODO chroni nie tylko dane, ale i osoby. Szczególnie wtedy, gdy w grę wchodzą dane wrażliwe – np. związane z seksualnością. A taki właśnie był charakter tego obrazu. Uczniowie nie mieli żadnej zgody, żadnej podstawy prawnej, by go stworzyć. Mamy tu więc nielegalne przetwarzanie danych – a w dodatku potencjalnie przestępstwo z art. 202 § 3 Kodeksu karnego. Ten przepis penalizuje rozpowszechnianie treści pornograficznych z udziałem osoby małoletniej. I, co ważne, orzecznictwo już wcześniej pokazało, że nie trzeba realnego aktu seksualnego – wystarczy cyfrowa treść, która seksualizuje dziecko. Tak uznał m.in. Sąd Najwyższy w sprawie V KK 655/19. I tak samo zinterpretował to UODO.
To coś więcej niż incydent – to precedens
Dlatego ta sprawa to coś więcej niż incydent. To precedens. Pokazuje, że RODO to nie tylko klauzule informacyjne i zgody na newslettery – ale realna tarcza chroniąca ludzi przed cyfrową krzywdą. Dziecko, które stało się ofiarą tej sytuacji, mogło doświadczyć wstydu, wykluczenia, stresu. I to są prawdziwe konsekwencje – nie piksele.
Rodzice, szkoły, dorośli – czy zdajemy egzamin?
To także test dla nas wszystkich – rodziców, nauczycieli, dorosłych. Czy zdajemy sobie sprawę, jakie możliwości dają dzieciom narzędzia AI? I jak łatwo mogą one wymknąć się spod kontroli? Dla wielu to tylko „zabawa”, ale granica między niewinnym wygłupem a cyfrową przemocą bywa bardzo cienka.
AI Act – nowe zasady gry dla twórców i użytkowników AI
Czy nowe prawo coś zmieni? Tak. W 2024 r. Unia Europejska przyjęła rozporządzenie o sztucznej inteligencji – AI Act. To pierwszy akt prawny w Europie, który jasno mówi: treści tworzone przez AI muszą być oznaczane jako sztuczne. A wykorzystywanie danych prawdziwych osób – bez ich wiedzy i zgody – jest zakazane.
Art. 50 AI Act wprost mówi o obowiązku oznaczania deepfake’ów i innych treści generatywnych. Co więcej, przepisy zabraniają użycia rzeczywistych danych (np. twarzy, głosu) do tworzenia takich materiałów bez zgody zainteresowanej osoby. A jeśli ktoś narusza te zasady – grożą mu surowe kary, także finansowe.
Nie czekaj – reaguj, edukuj, zgłaszaj
Prawo zaczyna doganiać technologię – ale to my musimy sprawić, żeby działało w praktyce. Dlatego tak ważne jest, byśmy jako dorośli nie zostawiali takich spraw bez reakcji. Jeśli widzisz, że w szkole dzieje się coś niepokojącego – reaguj. To nie jest „głupi żart”. To może być przestępstwo. Dzieci muszą wiedzieć, że granice istnieją także w sieci – i że naruszenie godności drugiego człowieka zawsze ma swoje konsekwencje.
Na koniec – co możesz zrobić już dziś?
Rozmawiaj. Tłumacz. Edukuj. Nie zakładaj, że dzieci „wiedzą lepiej”. Pokaż, że odpowiedzialność cyfrowa to coś, czego wszyscy musimy się nauczyć – razem. A jeśli coś się wydarzy – zgłaszaj. Do szkoły, do UODO, na Policję. Masz do tego pełne prawo – i moralny obowiązek.
Godność nie jest wirtualna
Bo deepfake to nie tylko technologia. To narzędzie. Może być użyte do tworzenia sztuki albo do krzywdzenia innych. W tym przypadku zostało użyte do przemocy – wobec dziecka. A my mamy obowiązek tę przemoc zatrzymać. Nie przez zakazy – ale przez świadomość, empatię i odpowiedzialność.
W świecie, w którym algorytmy potrafią wszystko, tylko jedno musi pozostać nienaruszalne: godność człowieka. Nawet – a może przede wszystkim – tego najmłodszego.





{ 0 komentarze… dodaj teraz swój }