Skip to main content

Cyberbezpieczeństwo

1 października 2025 r.

   

W walce z cyberprzestępczością ludzie potrzebują AI - a AI potrzebuje ludzi

Sama technologia nie jest w stanie wyprzedzić dzisiejszych cyberprzestępców. Ludzki osąd, ukształtowany przez doświadczenie, empatię i intuicję, pomaga łączyć punkty, które maszyny mogą przeoczyć.

Koledzy patrzą na duży ekran z kodem w biurze.

Aimee Levitt

Współtwórca

Kilka lat temu turysta w Meksyku użył swojej karty kredytowej, aby wypłacić gotówkę z bankomatu. Kiedy wrócił do domu i spojrzał na wyciąg z karty, zobaczył, że została ona również użyta do zakupu kilku sztuk biżuterii. To było dziwne: Nie tylko nie kupił niczego za pomocą karty na wakacjach, ale transakcja miała miejsce pięć minut po wypłacie z bankomatu - w sklepie po drugiej stronie kraju.

Na szczęście, po przeanalizowaniu jego przypadku, zespół w jego banku zgodził się, że - chociaż ich narzędzia do wykrywania oszustw AI nie oznaczyły zakupu jako podejrzanego - było bardzo mało prawdopodobne, że sam kupił biżuterię, więc zwrócili pieniądze za zakup. Podczas dalszych poszukiwań zespół ustalił, że oszuści prawdopodobnie ukradli informacje o jego karcie kredytowej z czytnika ukrytego w bankomacie i wysłali je do wspólnika na przeciwległym wybrzeżu.

Łatwość, szybkość i anonimowość współczesnych płatności doprowadziły do powstania takich oszustw na skalę, za którą ludzie nie są w stanie nadążyć. Na szczęście nie muszą, ponieważ aplikacje AI monitorują teraz każdą transakcję i pilnują całej sieci kart pod kątem ataków. Te modele AI sortują dane bardziej efektywnie niż jakikolwiek człowiek.

Mastercard od lat wykorzystuje sztuczną inteligencję do wykrywania oszustw i obecnie wykorzystuje ją do zabezpieczania ponad 159 miliardów transakcji rocznie, zapobiegając stratom z tytułu oszustw w wysokości miliardów dolarów. W ubiegłym roku Mastercard przejął firmę Recorded Future, która wykorzystuje sztuczną inteligencję do analizowania milionów punktów danych dziennie, identyfikując wzorce i anomalie sygnalizujące potencjalne zagrożenia.

Ale tak bardzo, jak ludzie potrzebują AI, AI również potrzebuje ludzi. Podczas gdy zautomatyzowane narzędzia wykonują ciężką pracę, aby wyniki były użyteczne, programiści muszą stale dostarczać rzeczywisty kontekst - identyfikując nowe rodzaje oszustw, określając, jak im zapobiegać bez zakłócania większej sieci i programując nowe reguły w algorytmie. Ten ludzki wkład jest tym, co zmienia surową moc sztucznej inteligencji w odpowiednią i praktyczną inteligencję.

W miarę jak sztuczna inteligencja i modele uczenia maszynowego stają się coraz potężniejsze, kuszące jest przekonanie, że sama technologia może wyprzedzić dzisiejszych cyberprzestępców, mówi Johan Gerber, globalny szef działu rozwiązań bezpieczeństwa w Mastercard. "Ale za każdym alertem, anomalią lub oflagowaną transakcją kryje się kluczowa, przyrostowa warstwa, której algorytmy nie są w stanie odtworzyć: ludzka ocena. Kiedy ludzka ocena jest połączona ze sztuczną inteligencją, to właśnie czyni ją naprawdę skuteczną i zapewnia, że pozostaje odpowiedzialna".

 

Radzenie sobie z nieoczekiwanym

Chociaż sztuczna inteligencja została zaprojektowana do rozpoznawania subtelnych wzorców w ogromnych ilościach danych, nie zawsze jest przygotowana do obsługi wartości odstających. Bez ludzkiego nadzoru nieoczekiwane zdarzenia mogłyby spowodować przeoczenie zagrożeń, fałszywe alarmy i inne zakłócenia.

"Nawet z tymi potężnymi narzędziami nadal potrzebujesz ludzi" - mówi Vince Haulotte, dyrektor ds. dostarczania na rynek w dziale oszustw i podejmowania decyzji dotyczących ryzyka w Mastercard. "Aby upewnić się, że reakcja sztucznej inteligencji jest skuteczna, należy zachować zdrowy rozsądek i wziąć pod uwagę kontekst".

 

Brett Thomson i Vince Haulotte siedzą na kanapie w centrum technologicznym Mastercard w St. Louis.

Brett Thomson, po lewej, i Vince Haulotte to dwaj eksperci ds. cyberbezpieczeństwa, którzy pomagają klientom Mastercard odpierać stale ewoluujące ataki na całym świecie z centrum technologicznego firmy w St. Louis. (Źródło zdjęcia: Mira Belgrave)

 

Na przykład, systemy AI monitorowały użycie karty kredytowej podróżnego podczas jego wakacji w Meksyku. Ale sztuczna inteligencja potrzebowała człowieka, aby powiedzieć jej, że jest coś zabawnego w dwóch transakcjach następujących po sobie po przeciwnych stronach kraju, i potrzebowała człowieka, aby pokazać jej, jak uważać na podobne incydenty w przyszłości.

Aby zapobiec wpływowi tego konkretnego oszustwa na innych klientów, Haulotte, wówczas programista pracujący na platformie Brighterion AI, stworzył nową regułę, która oznaczała transakcje niemożliwe geograficznie. Brighterion monitoruje transakcje kartami kredytowymi w czasie rzeczywistym, 24 godziny na dobę, 7 dni w tygodniu i ocenia je na podstawie tego, jak ryzykowne się wydają; gdy transakcja zostanie oznaczona jako potencjalnie oszukańcza, system natychmiast powiadamia bank użytkownika karty. (Każdy bank może dostosować próg punktowy do podjęcia działań, takich jak wysłanie ostrzeżenia lub nawet odrzucenie transakcji). 

Safety Net, kolejny produkt Mastercard, wykorzystuje sztuczną inteligencję do monitorowania całej sieci kart pod kątem oznak ataków. Na przykład, jeśli witryna jest zalewana tysiącami nowych kont w krótkim czasie, może to być spowodowane tym, że oszuści spamują witrynę, aby odgadnąć prawidłowe numery kart za pomocą brutalnej siły.

Oczywiście model sztucznej inteligencji tego nie wie; niekoniecznie może zrozumieć najdrobniejsze szczegóły ludzkiego zachowania. W rezultacie może to również podnieść czerwoną flagę, gdy udana promocja - lub, powiedzmy, Cyberponiedziałek - powoduje wzrost ruchu w witrynie. Rozpoznanie różnicy to miejsce, w którym pojawiają się ludzie.

"Przy takiej fali prawdziwych transakcji współpracuję z menedżerem konta, aby zrozumieć, co się dzieje i wprowadzić środki ostrożności, aby zapobiec fałszywym alarmom" - mówi Brett Thomson, dyrektor ds. rozwoju produktów w Safety Net. "Musisz nadać sztucznej inteligencji jakiś kierunek".

 

Gra w kotka i myszkę

Ponieważ strategie przestępcze nieustannie ewoluują, ludzka wiedza specjalistyczna jest również niezbędna do identyfikowania nowych zagrożeń i określania sposobów ich powstrzymania. Gdy tylko oszuści zdadzą sobie sprawę, że ich strategie już nie działają, opracowują nowe schematy. Ale ponieważ sztuczna inteligencja jest szkolona na podstawie wcześniejszych danych, narzędzia monitorujące nie zawsze natychmiast wykrywają te nowe wzorce. Tak więc to ludzcy programiści muszą aktualizować i szkolić algorytmy w ciągłej grze w kotka i myszkę.

"Gdy wprowadzimy ograniczenia, zmienią swoją strategię. Następnie zauważymy tę strategię i dodamy nowe środki łagodzące" - mówi Thomson. "To ciągła wymiana zdań, w której każdy z nas obserwuje reakcję drugiej strony na kolejne wydarzenia".

Ta nieustanna dynamika gwarantuje, że Thomson, Haulotte i ich koledzy z całej branży pozostaną kluczowymi graczami w walce z oszustwami.

"Nieustannie zaskakuje mnie zuchwałość i wyobraźnia oszustów" - mówi Haulotte. "Zawsze pojawiają się nowe trendy w oszustwach, więc musimy tworzyć nowe rozwiązania, aby je wyprzedzać. Nasza praca nigdy się nie kończy". 

 

Czym jest analiza zagrożeń? 101 na temat bezpieczeństwa firm

Analiza zagrożeń wykorzystuje sztuczną inteligencję i uczenie maszynowe do automatyzacji gromadzenia i analizy informacji online, przyspieszając czas reakcji i zmniejszając koszty.