Technologie ML i AI poprawią Twoje bezpieczeństwo

Z raportu VMware Global Security Insights wynika, że ponad połowa firm obawia się wykorzystać technologie ML i AI ze względu na bezpieczeństwo swoich danych. Technologie te mogą tak naprawdę rozwiązać problem bezpieczeństwa, jeśli tylko zaakceptowane zostaną jako czynniki wspomagające.

Technologie ML i AI

Wykorzystanie technologii ML (Machine Learning – uczenie maszynowe) i AI (Artificial Inteligence – sztuczna inteligencja) wciąż raczkuje. Przez cały czas pojawiają się pytania dotyczące ich wykorzystania w przyszłości. Według wielu raportów ich zagospodarowanie w przedsiębiorstwach oscyluje dziś maksymalnie wokół 10 proc. Badania McKinsey wskazują, że do 2030 r. AI może sprawić, że światowa gospodarka zostanie zasilona dodatkowymi 13 bln dolarów rocznie.

Codziennie większość z nas ma do czynienia z ML, ale jej nie dostrzega. Przykładem mogą być choćby przygotowane pod profil użytkownika reklamy na Facebooku lub wyświetlane w treści artykułów czytanych w przeglądarkach.

Uczenie maszynowe i sztuczna inteligencja są wykorzystywane w łańcuchach dostaw. Poprawiają relacje z klientamipomagają w diagnostyce medycznej. Jest to jedna z najszybciej rozwijających się technologii, któe wykorzystywane są w celach biznesowych. Służąca szybkiemu przetwarzaniu dużych ilości danych. „Ucząca się” z czasem i stają tym lepszymi, im częściej to robią lub przetwarzają większe ilości danych.

Technologie ML i AI zastępują człowieka

Systemy AI są w stanie tworzyć teksty, potrafią komponować utwory, a także tworzyć obrazy. Bez problemów ożywiają stare zdjęcia. AI może być wykorzystane zarówno do celów społecznie użytecznych, jak i tych szkodliwych.

„W kwestii bezpieczeństwa jest to jednak zupełnie inna historia. Panuje przekonanie, że aplikacje oparte na AI/ML stanowią otwartą furtkę dla potencjalnych napastników. To prawda, że im więcej rozwiązań i technologii, tym ryzyko, że coś „pójdzie nie tak” staje się większe. W rzeczywistości jesteśmy tak silni, jak ostatnio odparty rodzaj ataku. Pamiętajmy jednak, że celem cyberprzestępcy jest zazwyczaj szukanie nowych „ślepych punktów”, czyli miejsc, w których może się ukryć i uzyskać dostęp do danych, a które nie są jeszcze znane. Im dłużej pozostaje niezauważony, tym ma więcej czasu na przygotowania, co pozwala mu na atak w idealnym dla siebie momencie. Sztuczna inteligencja może zapobiec takim zagrożeniom” – powiedział Stanisław Bochnak, Senior Business Solutions Strategist w VMware Polska.

To powinno skłaniać użytkowników do stosowania aplikacji zabezpieczających, które wykorzystują technologie ML i AI. Dzięki którym można dokonać analizy „normalnych” zachowań w infrastrukturze, a także nauczyć ML i AI, jak wygląda stan bezpieczeństwa i dzięki temu wyłapywać anomalie sugerujące problemy. Co powstrzymuje przed tym firmy?

Problem ze złożonością rynku

Firmy wiedzą, że ich bezpieczeństwo IT nie spełnia dzisiejszych wymogów i wymaga gruntownej zmiany. Problemem może być jednak złożoność stosowanych obecnie rozwiązań. Zgodnie z wynikami Global Security Insights, ponad połowa firm (57 proc.) uważa, że rynek systemów bezpieczeństwa jest tak skomplikowany, że trudno im wprowadzić zmiany w bieżącej polityce zabezpieczeń.

Duże firmy dotarły do etapu, w którym zastosowane rozwiązania dotyczące bezpieczeństwa są tak duże, że nie wiadomo, gdzie zacząć ich bieżące usprawnianie. Powstawały one na przestrzeni lat. Były zmieniane, przebudowywane, naprawiane, aktualizowane i łatane. Niestety obecnie się nie sprawdzają.

„Niektóre systemy bezpieczeństwa przypominają bolid F1, którego silnik trzyma na swoim miejscu tylko klej, sznurek i modlitwa. Oto powód, dla którego bezpieczeństwo musi być nieodłączne — zintegrowane, a nie “doczepiane” w różnych miejscach. Mając solidne zaplecze, firmy mogą wprowadzać innowacje i badać nowe technologie, takie jak ML i AI, bez obaw i ryzyka. Niemniej dzisiejsze systemy bezpieczeństwa są tak kruche, że organizacje nie mają odwagi wprowadzać większych, odważnych zmian. Ogranicza je własna sztywna i krucha stabilność” – powiedział Stanisław Bochnak.

Zapewnienie bezpieczeństwa to prawdziwy koszmar

W przypadku prób ogarnięcia bałaganu, związanego ze współczesnym bezpieczeństwem, technologie ML i AI przynoszą całą gamę rozwiązań dla biznesu. Ze względu na swój charakter, obydwie technologie pomagają skupić się na detalach i zrozumieć najdrobniejsze szczegóły.

Im większe i bardziej złożone są stawiane przed nimi zadania, tym lepiej się sprawdzają. W przypadku modelowania zagrożeń, reagowania i przewidywania, wykorzystania aplikacji bezpieczeństwa wykorzystujących ML i AI przynosi to ogromne korzyści.

Jak wynika z raportu VMware Global Security Insights – 62 proc. firm chciałoby używać więcej aplikacji wykorzystujących ML i AI do poprawy swojego bezpieczeństwa i usług. Jednak realizacja tej koncepcji zależy od tego, czy pracownicy poczują się pewnie z decyzjami podejmowanymi przez algorytmy. Tu potrzebne jest niezachwiane zaufanie do technologii.

Tłumaczenie działania sztucznej inteligencji

Niepokój wokół uczenia technologie ML i AI ma swoje podstawy. AI w swej naturze jest autonomiczna. To oznacza, że trzeba jej oddać kontrolę nad podejmowaniem decyzji. Jednakże, aby firmy mogły pozwolić czemuś niekontrolowanemu działać i stać na straży bezpieczeństwa, potrzeba czegoś więcej niż tylko „ślepej wiary”. Powinno się tłumaczyć i uzasadniać, w jaki sposób sztuczna inteligencja podjęła konkretną decyzję.

Takie rozwiązanie jest trudne. Większość systemów SI koduje się sama poprzez uczenie maszynowe przy wykorzystaniu zbiorów danych, a nie poprzez jawne programowanie. Tym samym trudno dowiedzieć się, w jaki sposób decyzja została podjęta. Potrzebne są tak zwane „łańcuchy rozumowania”, które pokażą, jak podejmowane są właściwe decyzje. Dzięki temu firmy zyskają większe zaufanie do produktów AI, szczególnie w zakresie bezpieczeństwa.

Innowacja czy inwencja?

W tej dziedzinie firmy muszą wykazać się innowacyjnością. Trzeba stworzyć samodoskonalący się mechanizm poprawiający bezpieczeństwo. Prawie dwie trzecie (63 proc., dane z raportu) firm ocenia, że przed nimi jest jeszcze długa droga.

Zasady wykorzystania technologii ML i AI powinny być tak samo uniwersalne, jak w przypadku płac czy kadr. Firmy powinny przykładać większą uwagę do tego, aby technologie sztucznej inteligencji i uczenia maszynowego były bardziej zrozumiałe dla swoich klientów.

Ważna jest odpowiednia postawa, budująca zaufanie do nowości. Tylko wtedy znikną obawy związane z aplikacjami bezpieczeństwa wykorzystującymi technologie ML i AI.

Źródło: VMware

Dodaj komentarz