Warszawa
24/02/2026, 23:39
Overcast
Prognoza
2°C
Ciśnienie: 1006 mb
Wilgotność: 93%
Wiatr: 3.1 m/s WNW
Opis: 0mm /88% / Rain
Prognoza
25/02/2026
Dzień
25
Light drizzle
2°C
Wiatr: 4.7 m/s NNW
Opis: 0mm / 41% / Rain
Prognoza
26/02/2026
Dzień
07
Prognoza
6°C
Wiatr: 3.8 m/s SSE
Opis: 0mm / 0% / Rain
 
Subskrybuj
  • 7:47 min

Rosyjskie służby wykorzystywały wygenerowane przez AI materiały do dezintegracji polskiego społeczeństwa, do antagonizowania stosunków pomiędzy poszczególnymi regionami Polski, pomiędzy mniejszościami mieszkającymi w Polsce i tak dalej. Z punktu widzenia samego mechanizmu dezinformacji nie jest to nic nowego, natomiast narzędzia, którymi dysponują hakerzy, cyberprzestępcy, cyberwojownicy, są bardzo proste w użyciu i relatywnie tanie – mówi dr Piotr Łuczuk, ekspert w dziedzinie cyberbezpieczeństwa, Uniwersytet Kardynała Stefana Wyszyńskiego.

Rosyjskie akcje przeciw Polsce

Pojawia się coraz więcej treści generowanych przez AI, to jest normalne. Tylko że obok filmików, o których każdy wie, że są wygenerowane przez sztuczną inteligencję – na przykład starsza pani spaceruje z dinozaurem, lwem, albo niedźwiedziem, czy filmów satyrycznych, są też materiały imitujące istniejące media. A w nich np. tytuł, że znany aktor się rozwiódł, umiera, albo już nie żyje. Po kliknięciu w artykuł okazuje się, że nawet nie ma nazwiska owego aktora, albo jest kłamstwo na jego temat. Jednak wiele osób przynajmniej za pierwszym razem nabiera się na takie prowokacje. Jakie są intencje twórców takich materiałów?

Dr Piotr Łuczuk: Sprawa jest poważna, każdy taki przypadek należałoby zbadać, czy służył jedynie zrobieniu zasięgów, czy może jest wykorzystywany do właśnie atakowania, dezinformowania Polaków na wielu płaszczyznach. Przeciwko m.in. Polsce Rosjanie prowadzili operację Doppelgänger, która właśnie polega na tym, że stawiane były bliźniaczo, czy łudząco podobne strony, witryny internetowe różnych mniej lub bardziej popularnych serwisów. Informacyjnych, stron bankowych, czy po prostu informacyjnych. Przez wiarygodność tej właściwej, realnej witryny wiele osób nabierało się na treści, które im podawano. Ludzie byli przekonani, że czytają treści w portalach, które znają. Bardzo często słusznie mówi się, żeby weryfikować źródła informacji. Sprawdzać, czy witryna, na którą wchodzimy, w rzeczywistości jest tą, na którą chcemy wejść, wiarygodnym źródłem informacji.

Jak rozpoznać manipulację

Zgoda, ale jak odróżnić stronę łudząco podobną do tej, którą odwiedzamy dziesiątki razy dziennie?

Tu konieczna jest szczególna czujność, bo nawet eksperci mają często problem, żeby odróżnić fałszywą i prawdziwą stronę, postawione obok siebie. Tymczasem są pewne szczegóły, na które, gdy zwrócimy uwagę, już widzimy, że strona jest fałszywa. I sami pytamy się siebie, jak mogliśmy tego nie zauważyć. Tyle że nie ma jednego prostego sposobu, na wykrycie oszustwa. Nie powiem w tym momencie, że wystarczy sprawdzić poprawność linku. To oczywiście trzeba robić, ale w dobie różnego rodzaju systemów czy oprogramowania do skracania linków, nie jest to wystarczające. Adresy te skracają, chociażby popularne serwisy społecznościowe, a link może zupełnie nie przypominać tego, który mamy. Więc z punktu widzenia zwykłego użytkownika doszliśmy do takiego punktu, że bardzo trudno jest odróżnić, co jest prawdą, co fikcją. Jeżeli nie jesteśmy na bieżąco zorientowani w tym, co się dookoła nas dzieje, nie mamy rozległej wiedzy ogólnej, to bardzo łatwo będziemy się dawać nabierać i będziemy po prostu dawać się dezinformować.

Chodzi o dezintegrację Polaków

No dobrze, ale po co takie manipulacje są robione?

Tak jak już wspomniałem, w przypadku operacji Doppelgänger rosyjskie służby wykorzystywały tego rodzaju materiały do dezintegracji polskiego społeczeństwo, do antagonizowania stosunków pomiędzy poszczególnymi regionami Polski, pomiędzy mniejszościami mieszkającymi w Polsce i tak dalej. Z punktu widzenia samego mechanizmu dezinformacji nie jest to nic nowego, natomiast narzędzia, którymi dysponujemy dziś i którymi dysponują hakerzy, cyberprzestępcy, cyberwojownicy, są bardzo proste w użyciu i relatywnie tanie. Zaryzykowałbym stwierdzenie, że dzisiaj prowadzenie serwisu internetowego wykorzystującego właśnie mechanizmy oparte o sztuczną inteligencję jest dużo łatwiejsze i dużo tańsze niż prowadzenie redakcji jeszcze 5 czy 10 lat temu. Moim zdaniem dziś można jednoosobowo prowadzić serwis informacyjny w sieci i wiele osób nie zorientuje się, że są to newsy generowane przez boty.

Halucynacje AI

To z punktu widzenia autorów serwisów wygodne, ale też ryzykowne. Sztuczna inteligencja potrafi popełniać rażące i kompromitujące błędy, które mogą wyrządzić też wiele szkód?

To są tzw. halucynacje, nawet BBC wpadło w pułapkę zachłyśnięcia się AI i kiedy zaczęły pojawiać się depesze o tym, że odkryto jednorożce mówiące po angielsku, w końcu przyszła refleksja i stwierdzono, że jednak mimo wszystko te depesze musi weryfikować człowiek. Że jeżeli tego człowieka wykluczymy z tego obiegu informacyjnego, to będziemy mieć bardzo dużą podatność na uleganie dezinformacji. Więc z jednej strony tak, te strony będą wyrastać, jak grzyby po deszczu, zwłaszcza strony np. imitujące witryny urzędów, banków, serwisów informacyjnych. Z drugiej w prawdziwych serwisach będą ludzie, próbujący tę sztuczną inteligencję kontrolować.

Bardzo dużo jest filmów, obrazów, audio, gdzie coraz trudniej zorientować się, że to wytwór sztucznej inteligencji?

Jeżeli te materiały są dobrze przygotowane, zmontowane, i podane odpowiednio profesjonalnie, to bardzo trudno będzie nam odróżnić na przykład głos, a nawet i obraz, który oglądamy na ekranach naszych smartfonów od tego realnego. I to już jest naprawdę bardzo duże zagrożenie. Znamy już przykłady różnego rodzaju prób wyłudzeń pieniędzy na tak zwane znane twarze, czyli wykorzystywany jest wizerunek celebrytów bez ich zgody, bez ich wiedzy, wykorzystywany jest wizerunek aktorów, influencerów, polityków. Bardzo często pojawiają się reklamy z premierem, prezydentem. Rzekomo informują o różnego rodzaju fenomenalnej emeryturze albo czymś takim.

Spełnienie oczekiwań cyberprzestępców

No tak, tylko to już działo się nawet wtedy, gdy nie było jeszcze AI. Wtedy też już były zdjęcia polityków, zachęcające do inwestowania, ten mechanizm ewoluował.

Faktycznie nie jest to mechanizm nowy. On po prostu ewoluował i narzędzia można powiedzieć, że wyszły naprzeciw oczekiwaniom cyberprzestępców. Musimy naprawdę mieć się na baczności, bo docieramy do granicy, zaciera się granica pomiędzy tym, co realne a tym, co jest wytworem AI. Nam coraz trudniej jest rozpoznawać to, co jest prawdą, co fikcją. Dziś, kiedy rozmawiam ze studentami dziennikarstwa, oni są przekonani, pewni, że jednak mimo wszystko te treści generowane przez człowieka będą miały większą rację bytu, że odbiorcy będą dostrzegać różnice. Obawiam się, że chcemy, żeby tak było. Dopóki odbiorca ma pełną świadomość, że ma do czynienia z AI, to wybierze treści generowane przez człowieka. Jednak w mediach społecznościowych widzimy ostatnio wysyp różnego rodzaju ekspertów od wszystkiego, którzy swoje posty, swoje mądrości, generują właśnie przy użyciu sztucznej inteligencji. Czy to dobrze, czy źle, niech czytelnicy ocenią sami. Wyobraźmy sobie sytuację, w której nie jesteśmy w stanie stwierdzić, kto jest autorem danej depeszy, człowiek, czy AI. W takiej sytuacji optymizm wspomnianych studentów trudno jest podzielić. Na co dzień pracuję z różnego rodzaju narzędziami generującymi dźwięk i obraz. W ciągu ostatnich lat obserwuję ogromny rozwój tej technologii, włącznie z tym, że nawet lektorzy, osoby, które swojego głosu użyczały do nagrań, były zszokowane tym, jakie efekty jesteśmy w stanie osiągać po kilkudziesięciu minutach, czy kilku godzinach spędzonych z tym programem. To jest głos, praktycznie nie do odróżnienia. Naprawdę żyjemy w czasach, w których coraz trudniej będzie odróżniać prawdę od fikcji.

Rzeczywiście, jeśli chodzi o teksty informacyjne, depesze, będzie to praktycznie nie do odróżnienia, natomiast wydaje się, że też prawdziwi, żywi dziennikarze staną się na wagę złota. Będzie ich mniej, ale treści robione przez ludzi będą bardziej elitarne, ale przez sporą część społeczeństwa wyszukiwane.

Oczywiście, natomiast zagrożenia związane z cyberprzestępczością, dezinformacją, jak i wzrostem roli sztucznej inteligencji, będą wzrastać.

Czy można się ochronić?

W kwestii tych zagrożeń. Załóżmy, że ktoś ma podcast, albo stronę. I jego wizerunek przestępcy wykorzystają do oszustwa. Jak dochodzić swoich praw?

Nie owijając w bawełnę, nie ma prawie żadnych możliwości. W dobie AI, jeśli czyjś wizerunek ukradł ktoś z Tajlandii, Indii, Chin, Rosji i tam wykorzystuje do oszustw, ściganie takich przestępców jest praktycznie niemożliwe. Były już przecież przypadki celebrytów, celebrytek z całego świata, których wizerunek był wykorzystany gdzieś tam setki tysięcy kilometrów dalej właśnie przy użyciu AI. Im więcej potencjalnych treści będziemy dostarczać, im więcej ujęć naszej twarzy, naszego głosu umieścimy w sieci, tym bardziej będziemy karmić maszynkę sztucznej inteligencji, tym łatwiej przestępcy mogą podrobić nasz głos, i wykorzystać wizerunek.

Udostępnij na:

Tagi

Zobacz także:

22

lut

Rosyjskie służby wykorzystywały wygenerowane przez AI materiały do dezintegracji polskiego społeczeństwa, do antagonizowania stosunków pomiędzy poszczególnymi regionami Polski, pomiędzy mniejszościami mieszkającymi w Polsce i tak…

22

lut

Nie widzę, by narody europejskie czuły motywację, aby podejmować jakieś działania lub z czegoś rezygnować, bo tego wymaga dobro następnych pokoleń, lub wzmocnienie pozycji Europy.…

15

lut

Polska musi być niezależna, tworzyć własną siłę. Budujmy Trójmorze i jagiellońską politykę. Zanurzmy się całkiem w Unii, nie ma alternatywy. Jedyną opcją jest sojusz z…