Eksperci Trend Micro, ONZ i Europolu ostrzegają o wykorzystywaniu AI do włamań do samochodów autonomicznych i dronów
Organizacja Narodów Zjednoczonych, Europol i firma Trend Micro przygotowały wspólny raport. Wykazuje on, że cyberprzestępcy mogą wykorzystywać sztuczną inteligencję i uczenie maszynowe do ataków na autonomiczne samochody, drony i pojazdy połączone z Internetem rzeczy.
Europol, UNICRI i Trend Micro ostrzegają o wykorzystywaniu AI przez cyberprzestępców
Europol, UNICRI (United Nations Interregional Crime and Justice Research Institute) oraz Trend Micro przedstawiły wspólnie opracowany raport. Dokonano w nim analizy obecnych i przyszłych zagrożeń wykorzystania sztucznej inteligencji (AI) oraz uczenia maszynowego do dokonywania przestępstw.
Dzięki temu opracowaniu organy ścigania, osoby i instytucje decyzyjne, a także wszelkie zainteresowane tematem organizacje mogą uzyskać odpowiedzi na pytania dotyczące tego problemu. Są tam także sugestie dotyczące tego, jak się bronić i przeciwdziałać atakom obecnie i w przyszłości.
„Sztuczna inteligencja zapewniła światu wyższą wydajność, automatyzację i autonomię. W czasach, gdy opinia publiczna jest coraz bardziej zaniepokojona potencjalnie niewłaściwym wykorzystaniem AI, chcemy otwarcie mówić o zagrożeniach, ale także przyjrzeć się potencjalnym korzyściom płynącym z wykorzystania sztucznej inteligencji”. – powiedział Edvardas Šileris, szef Europy Centrum ds. Walki z Cyberprzestępczością Europolu. – „Ten raport pomoże nam nie tylko przewidzieć możliwe złośliwe zastosowania i nadużycia AI, ale także proaktywnie zapobiegać tym zagrożeniom i łagodzić je. W ten sposób możemy uwolnić potencjał AI i wykorzystania jej w sposób pozytywny i przynoszący wymierne korzyści”.
Z raportu wynika, że cyberprzestępcy wykorzystują sztuczną inteligencję w różnoraki sposób. Jest ona dla nich celem, jak i narzędziem ataku. Najbardziej znanymi sytuacjami, w których obecnie wykorzystuje się AI, są spektakularne materiały deep fake. Są to przeróbki filmów wideo, w których na twarz aktora nakładany jest wizerunek zupełnie innej osoby.
Raport ostrzega także, że w przyszłości potrzebna będzie nowa technologia do weryfikacji tego typu przeróbek. Wszystko po to, aby zminimalizować ryzyko związanych z tym dezinformacji i wymuszeń, jak również innych zagrożeń związanych z AI.
Pełny raport dostępny jest na stronie Europolu.
Przykłady wykorzystania AI
Przykładami wykorzystania sztucznej inteligencji przez cyberprzestępców mogą być między innymi:
- przekonujące ataki socjotechniczne na dużą skalę,
- malware tworzące dokumenty w celu zwiększenia skuteczności ataków,
- oszukiwanie systemów rozpoznawania obrazu i biometrii głosu,
- ataki ransomware poprzez inteligentne wybieranie celów i zacieranie śladów,
- odnajdywanie słabych punktów w systemach zabezpieczeń.
„W miarę jak aplikacje AI zaczynają wywierać ogromny wpływ na rzeczywistość, staje się jasne, że będzie to fundamentalna technologia dla naszej przyszłości.” – powiedział Irakli Beridze, szef Centrum AI i robotyki w UNICRI. – „Jednak tak jak korzyści dla społeczeństwa płynące z wykorzystania sztucznej inteligencji są bardzo realne, tak samo jest z groźbą jej złośliwego wykorzystania. Jesteśmy zaszczyceni mogąc wraz z Europolem i Trend Micro rzucić światło na ciemną stronę sztucznej inteligencji i otworzyć dalszą dyskusję na ten ważny temat ”.
W artykule ostrzega się również, że systemy wykorzystujące sztuczną inteligencję są opracowywane w celu zwiększania efektywności działania złośliwego oprogramowania (malware). Dodatkowo mogą zakłócać systemy chroniące przed takimi atakami i służące do biometrycznego rozpoznawania twarzy.
„Cyberprzestępcy zawsze byli najwcześniejszymi użytkownikami najnowszej technologii, a sztuczna inteligencja jest dla nich idealnym narzędziem. Jak ujawnia ten raport, AI jest już używana do odgadywania haseł, łamania CAPTCHA, klonowania głosu i wielu innych działań.” – powiedział Martin Roesler, szef wybiegających w przyszłość badań zagrożeń w Trend Micro. – „Jesteśmy dumni, że możemy współpracować z Europolem i UNICRI w celu podnoszenia świadomości dotyczącej wspomnianych zagrożeń, pomagając w ten sposób stworzyć bezpieczniejszą cyfrową przyszłość dla nas wszystkich”.
Wszystkie trzy współpracujące ze sobą organizacje przedstawiają w raporcie zalecenia, aby:
- wykorzystać potencjał technologii sztucznej inteligencji jako narzędzia do walki z cyberprzestępczością, a także wspierać działania służb walczących z cyberprzestępcami w przyszłości,
- kontynuować badania w celu stymulowania rozwoju technologii obronnych,
- promować i rozwijać bezpieczne środowiska programowania wykorzystujące AI,
- zlikwidować politycznie nacechowaną retorykę dotyczącą wykorzystywania sztucznej inteligencji do celów cyberbezpieczeństwa,
- wykorzystywać prywatne i publiczne wsparcie w celu tworzenia grup eksperckich łączących różne dziedziny.
Wykorzystanie AI w dobrej wierze
Sztuczna inteligencja jest wykorzystywana na najróżniejsze sposoby. Raport dotyczy ciemniejszej strony AI, ale obecnie można też zaprezentować także jaśniejszą i bardziej użyteczną stronę sztucznej inteligencji.
Przykładami, które możemy zaprezentować, są choćby te, w których AI pomaga niepełnosprawnym. Zachęcamy do przeczytania artykułu dotyczącego niewidomego biegacza, który bez przewodnika przebiegł 5 km.
AI wykorzystuje się także do zabezpieczania cyfrowych ekosystemów w bankach i instytucjach ubezpieczeniowych.
Sztuczna inteligencja wspiera pracowników, aby mogli być jeszcze efektywniejsi podczas wykonywania swoich obowiązków.
Entuzjasta technologii IT, mobile, wearables. Freelancer, od lat w branży mediów IT/Mobile (CD-Action, NeXT, PC Format, CafePC.pl, Benchmark.pl, Mobility, Komputer Świat, Bezprawnik, Startupmag, IoTLab.pl) , były PRowiec (Sweex i Hannspree) i logistyk. Pasjonat jedzenia, gotowania, zdrowego odżywiania, wędrówek, jazdy na rowerze, książek, kina, opery, teatru i wielu innych.