
Deepfake i cyberoszustwa – czy polskie prawo nadąża za technologią?
Technologia deepfake rozwija się w zawrotnym tempie, stając się coraz bardziej zaawansowana i trudniejsza do wykrycia. Fałszywe nagrania, imitujące głos i wizerunek dowolnej osoby, otwierają drzwi do nowych form oszustw – od manipulacji politycznych, przez wyłudzenia finansowe, po poważne naruszenia dóbr osobistych. W obliczu tych zagrożeń pojawia się kluczowe pytanie: czy polskie prawo jest wystarczająco przygotowane, by skutecznie ścigać i przeciwdziałać nadużyciom związanym z deepfake?
Kto odpowiada za szkody wyrządzone przez deepfake?
– Twórca deepfake – jeśli uda się go zidentyfikować, może ponosić odpowiedzialność karną i cywilną. W zależności od okoliczności może być ścigany za oszustwo (art. 286 KK), zniesławienie (art. 212 KK) czy naruszenie prywatności.
– Podmioty rozpowszechniające fałszywe treści – media społecznościowe i platformy hostingowe mogą ponosić odpowiedzialność za brak mechanizmów moderacji i usuwania szkodliwych materiałów. W UE obowiązuje Digital Services Act (DSA), który zobowiązuje platformy do szybszego reagowania na dezinformację i deepfake.
Czy polskie prawo nadąża za tym wyzwaniem?
Na świecie coraz więcej krajów wprowadza nowe regulacje. W Chinach obowiązuje już prawo wymagające oznaczania deepfake’ów i zakazujące się wykorzystywania ich do oszustw, a w niektórych stanach USA szerzenie fałszywych informacji w celu manipulacji wyborczej uznane zostało za przestępstwo🌏
Polska natomiast nie posiada obecnie dedykowanych przepisów dotyczących technologii deepfake. Walka z tym zjawiskiem opiera się na ogólnych regulacjach Kodeksu Karnego, Kodeksu Cywilnego oraz RODO, co często utrudnia skuteczne ściganie sprawców.