Eksperci Trend Micro, ONZ i Europolu ostrzegają o wykorzystywaniu AI do włamań do samochodów autonomicznych i dronów

Organizacja Narodów Zjednoczonych, Europol i firma Trend Micro przygotowały wspólny raport. Wykazuje on, że cyberprzestępcy mogą wykorzystywać sztuczną inteligencję i uczenie maszynowe do ataków na autonomiczne samochody, drony i pojazdy połączone z Internetem rzeczy.

Europol, UNICRI i Trend Micro ostrzegają o wykorzystywaniu AI przez cyberprzestępców

Europol, UNICRI (United Nations Interregional Crime and Justice Research Institute) oraz Trend Micro przedstawiły wspólnie opracowany raport. Dokonano w nim analizy obecnych i przyszłych zagrożeń wykorzystania sztucznej inteligencji (AI) oraz uczenia maszynowego do dokonywania przestępstw.

Dzięki temu opracowaniu organy ścigania, osoby i instytucje decyzyjne, a także wszelkie zainteresowane tematem organizacje mogą uzyskać odpowiedzi na pytania dotyczące tego problemu. Są tam także sugestie dotyczące tego, jak się bronić i przeciwdziałać atakom obecnie i w przyszłości.

Sztuczna inteligencja zapewniła światu wyższą wydajność, automatyzację i autonomię. W czasach, gdy opinia publiczna jest coraz bardziej zaniepokojona potencjalnie niewłaściwym wykorzystaniem AI, chcemy otwarcie mówić o zagrożeniach, ale także przyjrzeć się potencjalnym korzyściom płynącym z wykorzystania sztucznej inteligencji”. – powiedział Edvardas Šileris, szef Europy Centrum ds. Walki z Cyberprzestępczością Europolu. – „Ten raport pomoże nam nie tylko przewidzieć możliwe złośliwe zastosowania i nadużycia AI, ale także proaktywnie zapobiegać tym zagrożeniom i łagodzić je. W ten sposób możemy uwolnić potencjał AI i wykorzystania jej w sposób pozytywny i przynoszący wymierne korzyści”.

Z raportu wynika, że cyberprzestępcy wykorzystują sztuczną inteligencję w różnoraki sposób. Jest ona dla nich celem, jak i narzędziem ataku. Najbardziej znanymi sytuacjami, w których obecnie wykorzystuje się AI, są spektakularne materiały deep fake. Są to przeróbki filmów wideo, w których na twarz aktora nakładany jest wizerunek zupełnie innej osoby.

Raport ostrzega także, że w przyszłości potrzebna będzie nowa technologia do weryfikacji tego typu przeróbek. Wszystko po to, aby zminimalizować ryzyko związanych z tym dezinformacji i wymuszeń, jak również innych zagrożeń związanych z AI.

Pełny raport dostępny jest na stronie Europolu.

Przykłady wykorzystania AI

Przykładami wykorzystania sztucznej inteligencji przez cyberprzestępców mogą być między innymi:

  • przekonujące ataki socjotechniczne na dużą skalę,
  • malware tworzące dokumenty w celu zwiększenia skuteczności ataków,
  • oszukiwanie systemów rozpoznawania obrazu i biometrii głosu,
  • ataki ransomware poprzez inteligentne wybieranie celów i zacieranie śladów,
  • odnajdywanie słabych punktów w systemach zabezpieczeń.

W miarę jak aplikacje AI zaczynają wywierać ogromny wpływ na rzeczywistość, staje się jasne, że będzie to fundamentalna technologia dla naszej przyszłości.” – powiedział Irakli Beridze, szef Centrum AI i robotyki w UNICRI. – „Jednak tak jak korzyści dla społeczeństwa płynące z wykorzystania sztucznej inteligencji są bardzo realne, tak samo jest z groźbą jej złośliwego wykorzystania. Jesteśmy zaszczyceni mogąc wraz z Europolem i Trend Micro rzucić światło na ciemną stronę sztucznej inteligencji i otworzyć dalszą dyskusję na ten ważny temat ”.

W artykule ostrzega się również, że systemy wykorzystujące sztuczną inteligencję są opracowywane w celu zwiększania efektywności działania złośliwego oprogramowania (malware). Dodatkowo mogą zakłócać systemy chroniące przed takimi atakami i służące do biometrycznego rozpoznawania twarzy.

„Cyberprzestępcy zawsze byli najwcześniejszymi użytkownikami najnowszej technologii, a sztuczna inteligencja jest dla nich idealnym narzędziem. Jak ujawnia ten raport, AI jest już używana do odgadywania haseł, łamania CAPTCHA, klonowania głosu i wielu innych działań.” – powiedział Martin Roesler, szef wybiegających w przyszłość badań zagrożeń w Trend Micro. – „Jesteśmy dumni, że możemy współpracować z Europolem i UNICRI w celu podnoszenia świadomości dotyczącej wspomnianych zagrożeń, pomagając w ten sposób stworzyć bezpieczniejszą cyfrową przyszłość dla nas wszystkich”.

Wszystkie trzy współpracujące ze sobą organizacje przedstawiają w raporcie zalecenia, aby:

  • wykorzystać potencjał technologii sztucznej inteligencji jako narzędzia do walki z cyberprzestępczością, a także wspierać działania służb walczących z cyberprzestępcami w przyszłości,
  • kontynuować badania w celu stymulowania rozwoju technologii obronnych,
  • promować i rozwijać bezpieczne środowiska programowania wykorzystujące AI,
  • zlikwidować politycznie nacechowaną retorykę dotyczącą wykorzystywania sztucznej inteligencji do celów cyberbezpieczeństwa,
  • wykorzystywać prywatne i publiczne wsparcie w celu tworzenia grup eksperckich łączących różne dziedziny.

Wykorzystanie AI w dobrej wierze

Sztuczna inteligencja jest wykorzystywana na najróżniejsze sposoby. Raport dotyczy ciemniejszej strony AI, ale obecnie można też zaprezentować także jaśniejszą i bardziej użyteczną stronę sztucznej inteligencji.

Przykładami, które możemy zaprezentować, są choćby te, w których AI pomaga niepełnosprawnym. Zachęcamy do przeczytania artykułu dotyczącego niewidomego biegacza, który bez przewodnika przebiegł 5 km.

AI wykorzystuje się także do zabezpieczania cyfrowych ekosystemów w bankach i instytucjach ubezpieczeniowych.

Sztuczna inteligencja wspiera pracowników, aby mogli być jeszcze efektywniejsi podczas wykonywania swoich obowiązków.

Źródło: Europol, UNICRI

0 0 votes
Article Rating
Powiadomienia
Powiadom o
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x