Artykuł

Jak AI może szkodzić cyberbezpieczeństwu

2024-10-03

Czas czytania: mins

W ostatnim czasie bardzo popularny jest temat sztucznej inteligencji. Napisano już o nim tysiące artykułów, setki książek i przeprowadzono pewnie tyle samo szkoleń. Znamy zalety płynące z wykorzystania AI w cyberbezpieczeństwie, ale czy jesteśmy w pełni świadomi zagrożeń?

Techniki sztucznej inteligencji są rozwijane od lat. Skala jej zastosowań zaczęła rosnąć szczególnie w związku ze wzrostem mocy obliczeniowej komputerów oraz usprawnianiem komunikacji między urządzeniami. Autorzy prac naukowych z obszaru AI w swoich badaniach najczęściej poruszają tematykę związaną z algorytmem genetycznym, eksploracją danych, sztucznymi sieciami neuronowymi, a także uczeniem głębokim. Ale sztuczna inteligencja to też wyzwanie dla osób zajmujących się cyberbezpieczeństwem.

Wiele mówi i pisze się o roli i miejscu AI w walce z cyberzagrożeniami, a w szczególności wykorzystaniu jej do rozwiązywania złożonych problemów, z uwzględnieniem zagrożeń, ograniczeń i przygotowaniu organizacji do zastosowania nowych narzędzi. Mniej natomiast poświęca się uwagi słabym punktom bezpieczeństwa inteligentnych systemów, a w szczególności atakom na sztuczną inteligencję i niebezpiecznym posługiwaniem się nią.

Strzeż się swojego sprzętu domowego

Przykładem takich rozszerzonych zagrożeń AI jest używanie jej do ingerowania w sieci społecznościowe. Specjalnie zaprogramowane boty wykorzystujące sztuczną inteligencję infiltrują grupy i konta w mediach społecznościowych, aby wpływać na postrzeganie danego tematu lub wydobywać dane osobowe do celów przestępczych. Tego typu proceder obserwujemy w Polsce, szczególnie pod kątem rosyjskiej działalności w tej sferze. Istnieją chatboty, które potrafią naśladować ludzki dialog i prowadzić długą rozmowę, w ten sposób oszukując człowieka po drugiej stronie i próbując wydobyć od niego ważne dane osobowe. Nietrudno domyślić się, że pozyskane informacje mogą być podstawą do popełnienia oszustwa lub innych przestępstw.

Inny scenariusz zagrożenia w kontekście AI zakłada ustalenie przez nią priorytetów celów cyberataków przy użyciu uczenia maszynowego. Do tego wykorzystywane są duże zbiory danych pomagające skuteczniej identyfikować ofiary. Szacunkom mogą podlegać m.in. osobiste bogactwo i gotowość do płacenia na podstawie zachowania danej osoby w internecie. Pozwala to tym samym stworzyć kompleksowy profil ofiary.

W dzisiejszych czasach zakup urządzenia niepołączonego z internetem staje się bardzo trudną misją. Wszystko jest teraz inteligentne – zabawki, telewizory, lodówki, pralki, piekarniki… Oczywiście większość z nich może gromadzić nagrania dźwiękowe, integrować dane, parować się z wieloma sprzętami, a co najgorsze – stanowi wdzięczny cel złośliwych ataków.

Jakie są konkretne przykłady tego typu działań? Prawie każdy ze smartfonów ma wbudowane aplikacje asystentów głosowych o wysokich uprawnieniach, co umożliwia dostęp do zasobów systemowych i prywatnych informacji. Poza tym atakujący może wykorzystać odsłonięte inteligentne głośniki do wydawania poleceń dźwiękowych pobliskiemu inteligentnemu asystentowi. W końcu jeśli głośnik danego urządzenia jest podłączony do sieci, luki zabezpieczeń mogą zostać wykorzystane, powodując odtworzenie pliku audio hostowanego pod dowolnym adresem internetowym skonfigurowanym przez atakującego.

Hakerzy nie śpią

Hakerzy mogą wykorzystać postęp sztucznej inteligencji do cyberataków. Przykładami są ataki DDoS oraz MITM i tunelowanie DNS. Pierwsze z nich polegają na próbie uniemożliwienia działania wybranego systemu komputerowego lub usług sieciowych poprzez wysyłanie zapytań z wielu komputerów naraz. MITM opiera się na ingerencji w korespondencję online bez wiedzy nadawcy i odbiorcy, natomiast ostatnie z zagrożeń używa DNS do obejścia zabezpieczeń lub ukrycia ruchu sieciowego.

Najpoważniejszą obawą przed zastosowaniem AI w złośliwym oprogramowaniu jest to, że będzie ono się uczyć na podstawie wykrytych zdarzeń. Jeśli szczep takiego narzędzia dowie się, co spowodowało jego wykrycie, następnym razem może uniknąć tego samego schematu działania. Przykład stanowi 2015 rok i demonstracja tworzenia wiadomości e-mail w celu ominięcia filtrów antyspamowych. Ataki na pocztę elektroniczną są ukierunkowane i wymagają wysokiego poziomu umiejętności w obszarze inżynierii społecznej.

Przestępcy już teraz mają dostęp do więcej niż niezbędnej ilości danych nt. organizacji mogących być ich kolejnymi celami. Wystarczy uświadomić sobie, jak wiele informacji jest udostępnianych m.in. za pośrednictwem kont w mediach społecznościowych kadry kierowniczej wysokiego szczebla i odpowiedzialnych finansowo członków organizacji, oficjalnych stron internetowych, wiadomości, bieżących raportów, planów podróży, wycieków danych i osób z wewnątrz. Wszystko to można wykorzystać do budowania i trenowania algorytmów uczenia maszynowego.

Zagrożeń w kontekście cyberbezpieczeństwa i sztucznej inteligencji nie można ignorować. W 2017 roku zaprezentowano jedno z pierwszych narzędzi AI o otwartym kodzie źródłowym, które włamuje się do bazy danych aplikacji internetowej. Tego typu zbiory informacji pomagają w ulepszaniu algorytmów do odgadywania haseł. Tradycyjne narzędzia zwykle działają poprzez porównywanie wielu odmian skrótu wybranego kodu zabezpieczającego. Chociaż zasady te sprawdzają się w praktyce, rozszerzenie ich w celu modelowania kolejnych haseł jest pracochłonnym zadaniem dla specjalistów. Jednak poprzez wykorzystanie sieci neuronowych możliwość analizy takich danych i generowania ich odmian, uległa znacznemu przyśpieszeniu i poprawieniu skuteczności.

Sztuczna inteligencja może również odpowiadać za zagrożenia bezpieczeństwa fizycznego. Przykłady?  Posłużenie się nią do automatyzacji zadań związanych z przeprowadzaniem ataków lub powodowaniem awarii za pomocą autonomicznych pojazdów i innych systemów fizycznych z wykorzystaniem narzędzi zintegrowanych poprzez zarówno Internet Rzeczy, jak i jego podkategorię stanowiącą Przemysłowy Internet Rzeczy. Obie koncepcje mają za zadanie ułatwić przepływ i analizę danych w celu zwiększenia ogólnej efektywności usług. Jednak, niestety, mogą być również wykorzystane, aby szkodzić człowiekowi.  

Cybersecurity | Cyberbezpieczeństwo

Czy wiesz, że?

Jedne z naszych głównych obszarów działań to zwalczanie cyberprzestępczości i podnoszenie cyberbezpieczeństwa? Od 2021 roku koordynujemy europejską sieć praktyków z obszaru bezpieczeństwa cybernetycznego CYCLOPES, jesteśmy partnerem projektu CYRUS finansowanego przez UE i poświęconego tej tematyce w kontekście przemysłu, a ponadto stworzyliśmy autorski Standard Cyberbezpieczeństwa PPBW. Dowiedz się więcej pod tym linkiem

Dzisiaj a jutro

Sztuczna inteligencja jest szczególnie skutecznym narzędziem dla cyberprzestępców ze względu na jej zdolność do uczenia się i przewidywania tego, co dzieje się teraz i co może się wydarzyć w przyszłości. Stąd pojawiły się  terminy „AI-Crime”, „szkodliwa sztuczna inteligencja”, „złośliwa sztuczna inteligencja” czy „złośliwe wykorzystanie i nadużycie” sztucznej inteligencji. Praktyki te niekoniecznie są obecnie uznawane za przestępstwa na mocy określonych przepisów, ale nadal zagrażają bezpieczeństwu osób, organizacji i instytucji publicznych. Przez złośliwe nadużycie rozumiane jest stosowanie AI w złych intencjach, a także ataki na same systemy z niej korzystające.

Stąd w lutym 2019 roku przedstawiciele środowisk akademickich, policji, instytucji zajmujących się obronnością, rządu i sektora prywatnego, w trakcie warsztatów pt. „AI & Future Crime”, zorganizowanych w londyńskim University College, podjęli się zadania identyfikacji przyszłych nadużyć używających sztuczną inteligencję. Wskazano, że możliwości opartej  na niej przestępczości istnieją zarówno w sferze pokrywającej się z tradycyjnymi pojęciami cyberbezpieczeństwa i cyberprzestępczości, jak i w szerszym znaczeniu. Niektóre z tych zagrożeń pojawiają się jako rozszerzenie istniejącej nielegalnej działalności, podczas gdy inne mogą być nowatorskie. Uczestnicy wydarzenia zauważyli przy tym, że sztuczną inteligencję można wykorzystywać do celów zabronionych na wiele sposobów, które wzajemnie się nie wykluczają.

Przede wszystkim AI może być narzędziem do popełnienia tradycyjnego przestępstwa, poprzez stosowanie jej do ułatwiania działań przeciwko rzeczywistym celom. Przykładami użycia są przewidywanie zachowań osób czy instytucji do wykrywania słabych punktów, a także generowanie fałszywych treści do szantażu lub zaszkodzeniu reputacji. Ponadto sztuczna inteligencja może być zaprogramowana do dokonania czynów, których ludzie nie chcą lub nie są w stanie zrobić sami, np. z powodu niebezpieczeństwa, swoich ograniczeń, czasu reakcji itd.

Dodatkowo, jak już wspomniano wcześniej, samo AI może znaleźć się na celowniku przestępców poprzez próbę obejścia przez nich zabezpieczeń, aby uniknąć wykrycia lub ścigania za popełniony występek. Zamiarem tego typu ataków może być również sprawienie, że systemy krytyczne zawodzą, co ma podważyć wiarę obywateli w ich niezawodność. Pośredni efekt tego to mniejsze poczucie bezpieczeństwa, a co za tym idzie słabsze zaufanie społeczeństwa i pogorszenie więzi między ludźmi.

Sztuczna inteligencja na tym etapie jeszcze nie potrafi wszystkiego. A to właśnie wiara w funkcje, których nie posiada, często jest podstawą powodzenia nieuczciwego działania. Hipotetycznie domorosły inwestor może zostać zmanipulowany, gdy uwierzy w możliwości AI pod kątem przewidywania zmian choćby na rynku akcji. Otrzeźwienie i wnioski mogą jednak przyjść za późno – gdy jest już po fakcie.

Przestępstwo AI jako usługa

Stopień, w jakim różnorodność czynów przestępczych może zostać zwiększona za pomocą sztucznej inteligencji, w znacznym stopniu zależy od tego, jak bardzo przedmiot zainteresowania oszustów osadzony jest w środowisku IT. Stąd, oczywiście, AI lepiej nadaje się do udziału w oszustwie bankowym niż w bójce w pubie. Zwłaszcza że współczesne społeczeństwo głęboko uzależniło się od złożonych sieci obliczeniowych, nie tylko w zakresie finansów i handlu, ale także wszystkich form komunikacji, polityki, wiadomości, pracy i relacji społecznych.

W przeciwieństwie do wielu tradycyjnych przestępstw, te dokonywane w sferze cyfrowej i ich schematy można łatwo udostępniać, powtarzać, a nawet sprzedawać. Umożliwia to wprowadzanie technik przestępczych na rynek i dostarczanie czynów zabronionych jako usługi. Oznacza to, że osoby chcące złamać prawo mogą być w stanie zlecić na zewnątrz trudniejsze aspekty swojej działalności opartej na sztucznej inteligencji.

Niestety, urynkowienie tego typu specjalizacji, a co za tym idzie powstanie przestępczości AI jako usługi, stało się już faktem. Na różnych darknetowych forach można znaleźć nie tylko coraz więcej dyskusji o możliwościach wykorzystania narzędzi przestępczych opartych o algorytmy AI, ale także konkretne oferty realizacji czynów karanych z ich użyciem. Jednak ta wojna nadal trwa i nie należy zapominać, że postęp technologiczny to także szansa dla organów ścigania, aby zrobić dwa kroki do przodu i być przed osobami działającymi poza prawem.

Opracowano na podstawie pracy dr. Krzysztofa Jana Jakubskiego pt. „Niebezpieczna Sztuczna Inteligencja” opublikowanej w numerze specjalnym wydawnictwa „Przestępczość Teleinformatyczna 2023”.

Mediaplanet Cyberbezpieczeństwo

Artykuł został opublikowany w ramach kampanii „Poradnik biznesu” przygotowanej przez Mediaplanet, która jest dostępna pod tym linkiem.

Marek Wierzbicki
Doradca, Ekspert w Obszarze Analizy i Wywiadu Kryminalnego
PPBW
Przemysław Dobrzyński
Starszy Specjalista ds. Komunikacji
PPBW
ul. Słowackiego 17/11, 60-822 Poznań
ul. Słowackiego 17/11
60-822 Poznań
NIP: 783-161-82-32
REGON: 30029463000000
KRS: 0000251345
Dołącz do naszego newslettera!
Bądź na bieżąco z ważnymi wiadomościami.
MailerLite Accept*
SHIELD4CROWD has received funding from the European Union's Horizon Europe research and innovation programme under grant agreement No 101121171

Dołącz do naszego Newslettera!

Dołącz do PPBW

    MailerLite Zgoda

    Przemysław Dobrzyński

    Starszy Specjalista ds. Komunikacji

    Dołączyłem do Platformy w listopadzie 2017 roku. Przez długi czas byłem odpowiedzialny za realizację krajowych i europejskich projektów związanych z bezpieczeństwem. W związku z dynamicznym rozwojem PPBW oraz powstaniem Działu Komunikacji, zająłem się promocją i upowszechnianiem rezultatów naszych działań.

    Obecnie koordynuję komunikację projektów finansowanych przez UE z obszaru bezpieczeństwa. Do moich obowiązków należy również zarządzanie kanałami online PPBW oraz wspieranie zespołu w bieżących pracach.

    Posiadam szeroki zakres umiejętności, który pozwala mi realizować różnorodne zadania, takie jak tworzenie treści (teksty, zdjęcia, wideo), planowanie strategii komunikacyjnych i procesów, budowanie społeczności i relacji, a także administrowanie platformami online.

    Join our Newsletter!

    PPHS's Trainings Contact Form

    MailerLite Zgoda

    Przemyslaw Dobrzynski

    Senior Communication Specialist at the Polish Platform for Homeland Security

    I’ve been working at PPHS since November 2017. For a long time, I was responsible for implementing both international and national security projects. As PPHS developed and the Communication Department was established, I was promoted to a role focused entirely on communication.

    I currently serve as the Communication & Dissemination Manager for EU-funded security projects. My responsibilities also include managing the online channels run by PPHS and supporting the team with ongoing tasks.

    I have a broad set of skills, enabling me to handle a variety of tasks such as content creation (texts, photos, videos), communication and process planning, community and relationship building, as well as managing online platforms.

    Join Our Team

      Consent*
      MailerLite Zgoda