Cyberprzestępcy wykorzystują sztuczną inteligencję do wyłudzania danych. „Kreatywność cyberprzestępców jest bardzo duża". To musisz wiedzieć

OPRAC.:
Maciej Badowski
Maciej Badowski
PAP
PAP
Wideo
od 16 lat
Cyberprzestępczość jest coraz bardziej zaawansowana, a jej najnowszym narzędziem jest sztuczna inteligencja. Według ekspertów, aż 43 proc. badanych uważa, że AI udziela informacji obiektywnych i zawsze zgodnie z prawdą. W zderzeniu z powszechnym wykorzystywaniem sztucznej inteligencji przez cyberprzestępców, to przekonanie staje się niebezpiecznym narzędziem wyłudzeń.

Spis treści

W Polsce na razie żadna instytucja nie prowadzi odrębnych statystyk dla przestępstw, w których wykorzystano AI.
Jednym z najprostszych zastosowań sztucznej inteligencji do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję. fot. Unsplash/Jefferson Santos

Jak cyberprzestępcy wykorzystują AI do wyłudzania danych?

– Kreatywność cyberprzestępców jest bardzo duża, zapewne jeszcze nie raz zostaniemy zaskoczeni ich pomysłami – ocenił Bartłomiej Drozd, z ChronPesel.pl. Zdaniem Drozda, jednym z najprostszych zastosowań AI do wyłudzenia danych osobowych jest phishing, czyli wysyłanie e-maili podszywających się pod jakąś instytucję, w których jesteśmy proszeni o podanie danych osobowych, albo przekierowywani do fałszywych stron internetowych.

Drozd zwraca uwagę, że „dotychczas można je było łatwo odróżnić, bo z reguły zawierały mnóstwo błędów gramatycznych czy ortograficznych. Wykorzystanie modeli językowych to eliminuje. Można AI nauczyć stosowania określonego stylu i zrobi to bezbłędnie".

Inne metody wyłudzania danych

Oprócz phishingu, cyberprzestępcy wykorzystują inne techniki wyłudzania danych. W ubiegłym roku CSIRT KNF ostrzegał m.in. przed wprowadzającymi w błąd reklamami platform inwestycyjnych, w których podszywano się pod znane instytucje lub osoby, w tym polityków. Najczęściej wykorzystywano wizerunek Baltic Pipe, PGNiG, Tesli, spółek Skarbu Państwa i banków.

– Takie reklamy zamieszczane w mediach społecznościowych również przekierowywały do fałszywych podstron z formularzami wymagającymi np. rejestracji. Pozyskane w ten sposób dane mogą prędzej czy później zostać wykorzystane do wyłudzeń – stwierdził Bartłomiej Drozd.

AI i deepfake w rękach cyberprzestępców

Cyberprzestępcy stosują również technikę deepfake, która przy użyciu sztucznej inteligencji umożliwia nie tylko stworzenie fałszywych filmów i obrazów, lecz także podszycie się pod członka najbliższej rodziny. Oszuści mogą mieć dostęp do nagrania głosowego z naszym udziałem, które pozyskają np. z mediów społecznościowych. Niestety przed tym zjawiskiem jest się bardzo trudno uchronić.

Z ankiety przeprowadzonej przez McAfee wynika, że 53 proc. respondentów z siedmiu krajów dzieli się swoim głosem w Internecie przynajmniej raz w tygodniu. Aż 10 proc. ankietowanych doświadczyło próby oszustwa z wykorzystaniem fałszywego głosu w oparciu o AI, a kolejne 15 proc. zna osobę, która była celem takiego ataku.

Jak się chronić?

Prewencja jest kluczowa w ochronie przed cyberprzestępcami. Pamiętajmy jednak, że ochrona naszych danych zaczyna się od nas samych: nie udostępniajmy niepotrzebnie swoich danych, bądźmy sceptyczni wobec informacji udzielanych przez AI i zawsze sprawdzajmy, czy źródła informacji są wiarygodne.

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera
Wróć na nto.pl Nowa Trybuna Opolska