Deep fake to coraz poważniejsze zagrożenie. Przestępcy nie mają żadnych skrupułów. Po fałszywych reklamach z udziałem kapłanów, aktorów, celebrytów i polityków, oszuści zaczęli wykorzystywać wizerunki znanych specjalistów. W swoich działaniach coraz częściej sięgają po generatywną sztuczną inteligencję (AI), tworząc realistyczne, lecz całkowicie sfabrykowane materiały.
Deepfake. Sztuczna inteligencja w rękach oszustów
Deepfake z wizerunkiem słynnego lekarza
Przestępcy używają deepfake, żeby oszukiwać internautów. Najnowsza ofiara tej technologii to prof. Henryk Skarżyński – światowej sławy otolaryngolog, którego wizerunek został wykorzystany w fałszywej reklamie na Facebooku. Prof. Skarżyński jest uznanym otochirurgiem, specjalistą w dziedzinie otorynolaryngologii, audiologii, foniatrii i otolaryngologii dziecięcej.
Jak informuje Agencja Informacyjna na jednym z profili na Facebooku pojawił się spreparowany przy użyciu AI film promujący rzekomy preparat medyczny. Jest to klasyczny przykład deepfake – techniki bazującej na sztucznej inteligencji, pozwalającej na tworzenie realistycznych, lecz całkowicie fałszywych nagrań. Tego rodzaju manipulacje mają poważne konsekwencje społeczne, wpływając na postrzeganie rzeczywistości i mogąc stać się narzędziem cyberprzestępczości.
Europol chce totalnej inwigilacji. Czy rezygnacja z prywatności to cena za bezpieczeństwo w Europie?
Deepfake. Sztuczna inteligencja w rękach oszustów
Fałszywa reklama i jej konsekwencje
Jak pisze Bogusław Mazur na portalu salon24.pl, w sfabrykowanym filmie wykorzystano wizerunek prof. Skarżyńskiego oraz przypisano mu wypowiedzi na temat preparatu, który rzekomo ma cudownie przywracać słuch. Według i.pl profesor nigdy nie brał udziału w takim nagraniu ani nie wyraził zgody na użycie swojego wizerunku do promocji produktu. Co więcej, zgodnie z art. 63 Kodeksu Etyki Lekarskiej, lekarze nie mogą uczestniczyć w reklamach.
Prof. Skarżyński zgłosił sprawę do prokuratury, a warto dodać, że nie istnieje preparat, który w cudowny sposób przywraca słuch. Sukcesy profesora w tej dziedzinie są wynikiem skomplikowanych operacji chirurgicznych na pniu mózgu, a nie działania jakiegokolwiek specyfiku.
Deepfake z kardynałem Nyczem. Jak reaguje Kościół?
Deepfake. Sztuczna inteligencja w rękach oszustów
Sztuczna inteligencja w medycynie – szansa czy zagrożenie?
Prof. Henryk Skarżyński i jego syn, prof. Piotr H. Skarżyński, wielokrotnie podkreślali korzyści płynące z wykorzystania sztucznej inteligencji w medycynie. Cytowany przez portal i.pl prof. Skarżyński zwraca jednak uwagę na rosnący problem nadużywania AI do tworzenia fałszywych reklam, wykorzystujących wizerunki renomowanych specjalistów i firm farmaceutycznych. Tego rodzaju oszustwa nie tylko szkodzą reputacji ekspertów, ale mogą również stanowić zagrożenie dla zdrowia i życia pacjentów, którzy ufają w sfabrykowane informacje.
Juliusz Bolek, przewodniczący Rady Dyrektorów Instytutu Biznesu, tłumaczy, że osoby nieświadome technologii deepfake mogą łatwo ulec manipulacji. Fałszywe nagrania są coraz bardziej przekonujące, jednak można je rozpoznać po pewnych nieprawidłowościach: nienaturalnych ruchach oczu, zacinaniu się obrazu, zniekształceniach mimiki czy powtarzających się ujęciach. Głos w deepfake’ach może brzmieć nienaturalnie, zrobotyzowanie lub zawierać błędy w wymowie.
Juliusz Bolek podkreśla, że technologia ta jest coraz bardziej zaawansowana, dlatego najbezpieczniej jest weryfikować informacje w sprawdzonych źródłach, zanim uwierzymy w treści pojawiające się w mediach społecznościowych.
Sztuczna inteligencja w Kościele katolickim. Pierwsza NanoKaplica w Polsce
Deepfake. Sztuczna inteligencja w rękach oszustów
Społeczne zaufanie do AI i problemy prawne
Dr Piotr Balcerowski, wiceprezes Instytutu Staszica, cytując badania portalu ChronPesel.pl, wskazuje, że aż 43 proc. ankietowanych uważa, że odpowiedzi udzielane przez AI są zawsze zgodne z prawdą. To niebezpieczne przekonanie, które może prowadzić do łatwiejszego wpadania w pułapki fałszywych treści. Dr Balcerowski zwraca również uwagę na ostrzeżenia Komisji Nadzoru Finansowego przed oszukańczymi reklamami instrumentów finansowych, które wykorzystują AI do podszywania się pod znane osoby i instytucje.
Ekspert dodaje, że polskie prawo nie nadąża za szybkim rozwojem nowych technologii. Jeszcze rok temu deepfake były stosunkowo łatwe do wykrycia, dziś są niemal doskonałe, co stawia przed organami ścigania nowe wyzwania.
Prokuratura wszczęła dochodzenie w sprawie fałszywej reklamy z udziałem prof. Henryka Skarżyńskiego. Mimo to oszukańczy film nadal można znaleźć w internecie, a nieświadomi użytkownicy mogą paść ofiarą manipulacji.
Sprawa jest szczególnie oburzająca, ponieważ zgodnie z Kodeksem Etyki Lekarskiej lekarzom nie wolno uczestniczyć w reklamach produktów medycznych, co jednoznacznie potwierdza, że profesor Skarżyński nie miał z tym nagraniem nic wspólnego. Oszuści mogą jednak spodziewać się surowych konsekwencji – zgodnie z art. 286 Kodeksu karnego celowe wprowadzenie w błąd w celu osiągnięcia korzyści majątkowej grozi karą do 8 lat więzienia.
Facebook bez cenzury? Mark Zuckerberg zapowiada zmiany. Czy skorzystają na tym katolicy? [TYLKO U NAS]
Deepfake. Sztuczna inteligencja w rękach oszustów
Komentarz Redakcji: Judyta Światłowska
Fałszywa reklama z udziałem prof. Henryka Skarżyńskiego to kolejny alarmujący przykład, jak sztuczna inteligencja może stać się narzędziem manipulacji i oszustwa. O ile AI ma ogromny potencjał w medycynie, edukacji czy komunikacji, to w rękach nieuczciwych osób staje się zagrożeniem dla prawdy i godności człowieka.
W kontekście nowych dokumentów Watykanu dotyczących AI, Kościół wyraźnie podkreśla, że technologia ta powinna służyć człowiekowi i jego dobru, a nie być wykorzystywana do fałszowania rzeczywistości. Papieska Akademia Życia już wcześniej zwracała uwagę, że AI niesie ze sobą nie tylko korzyści, ale i ryzyka moralne, szczególnie gdy prowadzi do dezinformacji i podważania zaufania społecznego.
Przypadek prof. Skarżyńskiego jest tu wymowną ilustracją. Ktoś, kto przez dekady z oddaniem leczył ludzi, nagle zostaje ofiarą cyberoszustwa. To pokazuje, jak łatwo można dziś manipulować opinią publiczną, podszywając się pod autorytety i szerząc fałszywe treści. W tym kontekście Kościół przypomina, że prawda jest fundamentem zdrowych relacji międzyludzkich i że manipulowanie faktami jest sprzeczne z ósmym przykazaniem: „Nie mów fałszywego świadectwa przeciw bliźniemu swemu”.
To wydarzenie stawia przed nami poważne pytania: Jak bronić się przed deepfake’ami? Jakie mechanizmy prawne powinny nas chronić? I co najważniejsze – jak kształtować sumienia, by nowe technologie były używane etycznie?
Potrzebna jest większa czujność społeczna i edukacja w zakresie rozpoznawania dezinformacji, ale też odpowiedzialność platform internetowych. Nie możemy pozwolić, by sztuczna inteligencja stała się narzędziem zła – jej rozwój musi być prowadzony w duchu etyki i poszanowania godności człowieka. Jak przypomina Kościół, każda technologia jest dobra lub zła nie sama w sobie, lecz w zależności od intencji, jakie jej towarzyszą.
Niech więc ten przypadek będzie dla nas wezwaniem do troski o prawdę – w mediach, w przestrzeni publicznej i w codziennym życiu.
Judyta Światłowska
wAkcji24.pl | Ekonomia | KJN źrodło: Agencja Informacyjna | Komentarz: Judyta Światłowska |Ilustracja: Ideogram| 31.01.2025