Olsztyn, Elbląg, Ełk, Bartoszyce, Braniewo, Działdowo, Aktualności, Giżycko, Aplikacja mobilna, Gołdap, Iława, Kętrzyn, Lidzbark Warm., Mrągowo, Nidzica, Nowe Miasto Lub., Olecko, Ostróda, Pisz, Szczytno, Węgorzewo, Region, Regiony
Oszustwa „na wnuczka” ewoluują. Jak się bronić?
Przez lata ostrzegano nas przed oszustami „na wnuczka” czy „na policjanta”. Scenariusz był zawsze podobny: telefon, zmanipulowana historia i prośba o pieniądze. Ale rok 2026 przynosi zmianę, która przeraża nawet ekspertów. Teraz oszust nie musi już udawać głosu twoich bliskich – on go po prostu ma.
O skali problemu w naszym regionie mówią twarde dane policji. Jak wyjaśnia podkom. Tomasz Markowski z Komendy Wojewódzkiej Policji w Olsztynie, tradycyjne metody wciąż są niezwykle skuteczne, a straty idą w miliony.
Tylko w 2025 roku w wyniku oszustw „na legendę”, czyli na przykład takich, gdzie oszuści podawali się za członków rodziny, policjantów i pracowników banków, straty jakie ponieśli mieszkańcy Warmii i Mazur sięgnęły 4,5 mln zł. Takich spraw odnotowaliśmy około dwustu, ale niestety te liczby będą znacznie większe, gdy dodamy do nich wszystkie przestępstwa popełnione przy użyciu technologii teleinformatycznych
– wylicza podkom. Markowski.
To właśnie technologie teleinformatyczne stają się nowym, potężnym narzędziem w rękach przestępców. Największym zagrożeniem jest obecnie deepfake – technologia oparta na sztucznej inteligencji, która pozwala na niemal idealne sklonowanie ludzkiego głosu. W materiale reporterskim Marka Lewińskiego (do odsłuchania poniżej) opisujemy niezwykły eksperyment Bartosza Trzcińskiego z Banku Pocztowego. Porównujemy tam jego naturalny głos z wersją wygenerowaną przez algorytmy AI. Różnica jest niemal nieuchwytna dla ucha, co sprawia, że oszustwo staje się niemal niemożliwe do wykrycia podczas krótkiej rozmowy telefonicznej.
Cyberprzestępcy wykorzystują ten mechanizm nie tylko do rozmów, ale także do tworzenia fałszywych materiałów wideo z udziałem znanych osób ze świata sportu czy polityki.
Jeśli to są materiały stworzone przez oszustów i przez sztuczną inteligencję, to oczywiście mówimy o nierealnej sytuacji, bo ani ta osoba nigdy nie była w danym miejscu, ani nigdy nie wypowiadała takich słów
– przestrzega kom. Marcin Zagórski z Centralnego Biura Zwalczania Cyberprzestępczości w nagraniu dla Fundacji Think (kampania „Bezpieczne Złotówki”).
Mechanizm ataku często kończy się przejęciem kontroli nad urządzeniem ofiary. Fałszywy doradca finansowy nakłania do zainstalowania oprogramowania, które rzekomo ma monitorować zyski z inwestycji.
Musimy pamiętać, że może to być program, który przejmie kontrolę nad naszym komputerem i każdy ruch, który będziemy dokonywali na naszym komputerze, będzie widoczny przez oszustów. Nasz wpisany login, nasze hasło… logują się na nasze prawdziwe konto i dokonują transferu zgromadzonych tam pieniędzy
– dodaje kom. Zagórski.
Dlaczego tak łatwo ulegamy tym manipulacjom? Eksperci wskazują, że deepfake uderza bezpośrednio w nasze poczucie zaufania do autorytetów. Kamil Ćwikowski, kierownik zespołu bezpieczeństwa Banku Pocztowego, podczas webinaru z cyklu „Cyberdojrzali”, wyjaśniał psychologiczne podłoże tego zjawiska.
Deepfake to nie tylko technologia. To narzędzie, które działa wyjątkowo silnie, uderza w psychologię człowieka. Kiedy widzimy prezesa albo eksperta, ufamy. Nawet jeśli to tylko cyfrowa iluzja
– zauważa Ćwikowski.
Specjaliści apelują o wzmożoną czujność i weryfikowanie każdej prośby o pieniądze, nawet jeśli głos w słuchawce brzmi znajomo. Najlepszą metodą jest rozłączenie się i samodzielne wybranie numeru do osoby, która rzekomo do nas dzwoni.
Przede wszystkim weryfikujmy informacje, które do nas docierają. Sprawdzajmy, czy osoba, z którą rozmawiamy, jest na pewno tą, za którą się podaje
– podsumowuje Kamil Ćwikowski.
Posłuchaj relacji Marka Lewińskiego
Autor: M. Lewiński
Redakcja: A. Niebojewska




























