IoC vs Anomalie: Jak skutecznie wykrywać cyberataki? | nFlo Blog

Wskaźniki kompromitacji (IoC) vs anomalie: Jak wykrywać ataki na wczesnym etapie?

Napisz do nas

Wykrywanie cyberzagrożeń przypomina pracę detektywa na miejscu zbrodni. Czasami dowody są oczywiste i namacalne – porzucone narzędzie, odciski palców na klamce czy ślady butów prowadzące od wybitego okna. W świecie cyberbezpieczeństwa te twarde dowody to wskaźniki kompromitacji (Indicators of Compromise, IoC). Są to znane „złe” elementy, takie jak adres IP serwera hakera czy hash złośliwego pliku. Ich znalezienie jest jednoznacznym potwierdzeniem, że doszło do włamania. Tradycyjna obrona przez lata opierała się właśnie na poszukiwaniu tych znanych śladów.

Jednak najlepsi detektywi wiedzą, że najgroźniejsi przestępcy nie zostawiają po sobie oczywistych śladów. Zamiast tego, ich obecność zdradzają subtelne, drobne rzeczy, które „nie pasują” do otoczenia – krzesło przestawione o kilka centymetrów, dokumenty na biurku w innej kolejności, uchylone okno w zamkniętym na noc biurze. To właśnie anomalie. W cyberbezpieczeństwie, poleganie wyłącznie na poszukiwaniu znanych IoC jest strategią skazaną na porażkę w walce z zaawansowanymi przeciwnikami. Nowoczesna, dojrzała obrona musi ewoluować w kierunku wykrywania anomalii – subtelnych odchyleń od normy, które są pierwszym, cichym sygnałem, że w naszej sieci dzieje się coś niedobrego.

Czym są wskaźniki kompromitacji (IoC) i dlaczego są one fundamentem tradycyjnej detekcji?

Wskaźniki kompromitacji (Indicators of Compromise, IoC) to cyfrowe artefakty lub dowody, które z wysokim prawdopodobieństwem wskazują, że w systemie lub sieci doszło do naruszenia bezpieczeństwa. Są to konkretne, mierzalne i jednoznaczne „ślady” pozostawione przez atakującego lub jego złośliwe oprogramowanie. IoC stanowią fundament tradycyjnego, reaktywnego podejścia do wykrywania zagrożeń, ponieważ pozwalają na identyfikację znanych ataków na podstawie ich charakterystycznych cech.

Mechanizm działania detekcji opartej na IoC jest prosty. Zespoły bezpieczeństwa i firmy analityczne na całym świecie po przeanalizowaniu nowego ataku publikują listy znalezionych wskaźników. Następnie, administratorzy i systemy bezpieczeństwa (takie jak antywirusy, firewalle czy SIEM) mogą przeszukiwać swoje środowiska w poszukiwaniu dokładnie tych samych wskaźników. Jeśli dany wskaźnik zostanie znaleziony, jest to niemal pewny dowód na to, że organizacja również padła ofiarą tej samej kampanii. To podejście jest niezwykle cenne do wykrywania masowych, dobrze poznanych zagrożeń.


Jakie są najczęstsze typy wskaźników IoC i gdzie ich szukać?

Wskaźniki IoC mogą przybierać różne formy, w zależności od charakteru ataku. Do najczęściej spotykanych i wykorzystywanych w codziennej pracy analityków SOC należą:

  • Hashe złośliwych plików: Wartości skrótu (np. MD5, SHA-1, SHA-256) dla znanych wirusów, ransomware czy backdoorów. Analitycy mogą skanować systemy plików w poszukiwaniu plików o pasujących hashach.
  • Adresy IP: Adresy IP serwerów Command & Control (C2), z którymi łączy się złośliwe oprogramowanie, lub adresy używane do przeprowadzania skanowania i ataków. Można ich szukać w logach firewalla, proxy czy systemów NDR.
  • Nazwy domen: Nazwy domen internetowych używanych przez atakujących do hostowania złośliwego oprogramowania, stron phishingowych czy jako punkty końcowe dla komunikacji C2.
  • Adresy URL: Pełne ścieżki URL prowadzące do złośliwych treści, często znajdowane w wiadomościach phishingowych.
  • Klucze rejestru lub nazwy plików: Charakterystyczne klucze rejestru systemu Windows lub nazwy plików tworzone przez konkretne rodziny malware’u w celu zapewnienia sobie trwałości (persistence).

Źródłem tych wskaźników są najczęściej platformy analizy zagrożeń (Threat Intelligence Platforms), publiczne bazy danych oraz raporty publikowane przez agencje rządowe (takie jak krajowe CSIRT-y) i firmy z branży cyberbezpieczeństwa.


Jakie są kluczowe ograniczenia strategii obronnej opartej wyłącznie na IoC?

Strategia obronna oparta wyłącznie na poszukiwaniu znanych wskaźników kompromitacji ma jedno, fundamentalne ograniczenie: jest z natury reaktywna. Aby dany wskaźnik IoC mógł zostać użyty do detekcji, ktoś inny musi najpierw paść ofiarą ataku, przeanalizować go i opublikować jego charakterystykę. Oznacza to, że organizacje polegające tylko na IoC są w stanie wykrywać jedynie te ataki, które już są znane, opisane i skatalogowane.

To podejście jest całkowicie bezradne wobec nowych, nieznanych zagrożeń (ataków zero-day) oraz ataków przeprowadzanych przez zaawansowane, dyskretne grupy (APT). Wyrafinowani przeciwnicy dokładają wszelkich starań, aby każda ich kampania była unikalna. Używają niestandardowego, tworzonego na zamówienie malware’u, który nie ma znanego hasha. Korzystają z nowo zarejestrowanych domen i dedykowanej infrastruktury serwerowej, których adresy IP nie znajdują się na żadnej czarnej liście.

Co więcej, wskaźniki IoC są dla atakującego bardzo łatwe do zmiany. Zmiana adresu IP serwera C2 czy drobna modyfikacja kodu wirusa, która całkowicie zmienia jego hash, to dla hakera trywialne zadanie. Poleganie wyłącznie na IoC to jak próba łapania przestępcy, który po każdej akcji zmienia samochód, ubranie i wygląd. Zawsze będziemy o krok z tyłu.


Czym jest anomalia w kontekście cyberbezpieczeństwa i dlaczego jej wykrywanie jest tak ważne?

Anomalia to zdarzenie lub wzorzec zachowania, który znacząco odbiega od ustalonego, „normalnego” modelu działania danego użytkownika, urządzenia lub sieci. W przeciwieństwie do IoC, które jest jednoznacznie „złe”, anomalia sama w sobie nie jest dowodem na włamanie. Jest to sygnał, że wydarzyło się coś nietypowego, co wymaga dalszego zbadania. Wykrywanie anomalii jest fundamentem proaktywnego podejścia do bezpieczeństwa.

Wykrywanie anomalii jest tak ważne, ponieważ pozwala na identyfikację nieznanych i zaawansowanych zagrożeń, które nie pozostawiają po sobie oczywistych, skatalogowanych śladów. Zaawansowany atakujący, który zinfiltrował sieć, może nie używać znanego malware’u, ale jego działania nieuchronnie wygenerują anomalie. Logowanie się administratora na serwer o 3 nad ranem, podczas gdy normalnie pracuje on od 9 do 17, jest anomalią. Stacja robocza z działu HR, która nagle zaczyna skanować porty na serwerach deweloperskich, jest anomalią.

Strategia oparta na wykrywaniu anomalii nie pyta „czy widzę coś, co znam jako złe?”, lecz pyta „czy widzę coś, co odbiega od normy?”. To fundamentalna zmiana, która pozwala na wykrycie atakującego na bardzo wczesnym etapie, często już podczas fazy rekonesansu lub ruchu bocznego, na długo zanim zdąży on osiągnąć swój cel.

Dwa Filary Nowoczesnej Detekcji: IoC vs. Anomalie
AspektDetekcja oparta na IoCDetekcja oparta na Anomaliach
FilozofiaReaktywna („Czy widzę coś, co znam jako złe?”).Proaktywna („Czy widzę coś, co odbiega od normy?”).
Typ wykrywanych zagrożeńZnane, masowe ataki, popularne rodziny malware’u.Nieznane, zaawansowane ataki (zero-day, APT), zagrożenia wewnętrzne.
Skuteczność przeciwko nowym atakomNiska (brak znanych wskaźników).Wysoka (każdy nowy atak generuje anomalie).
Główne narzędziaAntywirus, firewall, reguły SIEM oparte na listach IoC.NDR, EDR, platformy UEBA, reguły SIEM oparte na analizie behawioralnej.

Jak systemy bezpieczeństwa uczą się, co jest „normalnym” zachowaniem w sieci?

Zdolność do wykrywania anomalii opiera się na posiadaniu wiarygodnego modelu tego, co jest „normalne”. Nowoczesne systemy bezpieczeństwa, takie jak platformy NDR (Network Detection and Response) i UEBA (User and Entity Behavior Analytics), wykorzystują w tym celu zaawansowane techniki uczenia maszynowego (Machine Learning).

Proces ten rozpoczyna się od fazy uczenia (learning phase). Po wdrożeniu, system przez pewien czas (np. kilka tygodni) pasywnie obserwuje i analizuje całą aktywność w monitorowanym środowisku. Uczy się, którzy użytkownicy normalnie logują się do których systemów, z jakich lokalizacji i o jakich porach. Tworzy model bazowy (baseline) normalnego ruchu sieciowego: jakie protokoły są używane, jakie serwery komunikują się ze sobą, jak duże są transfery danych.

Po zakończeniu fazy uczenia, system przechodzi w tryb detekcji. Od tego momentu, każda nowa aktywność jest porównywana w czasie rzeczywistym z wyuczonym modelem. System nie potrzebuje sztywno zdefiniowanych reguł. Sam potrafi zauważyć, że nagły wzrost transferu danych wychodzących z serwera plików jest statystycznie istotnym odchyleniem od normy, lub że próba logowania na 100 różnych kont z jednego komputera w ciągu minuty jest zachowaniem, które nigdy wcześniej nie miało miejsca. To właśnie zdolność do dynamicznego uczenia się i adaptacji do unikalnego środowiska danej firmy jest siłą tej technologii.


Od IoC do TTPs: dlaczego zrozumienie „jak” atakuje wróg jest ważniejsze niż „czym”?

W miarę dojrzewania operacji bezpieczeństwa, zespoły SOC przechodzą ewolucję w swoim myśleniu – od skupiania się na wskaźnikach IoC, do koncentrowania się na TTPs (Taktykach, Technikach i Procedurach). Ten model, spopularyzowany przez framework MITRE ATT&CK, opisuje zachowanie atakujących, a nie tylko narzędzia, których użyli.

  • IoC (wskaźniki) to najniższy i najmniej wartościowy poziom informacji. Hash pliku czy adres IP są trywialne do zmiany dla atakującego. Zablokowanie jednego wskaźnika IoC zatrzymuje tylko jedną, konkretną instancję ataku.
  • TTPs (zachowania) to znacznie wyższy poziom abstrakcji. Opisują one jak atakujący osiągają swoje cele, niezależnie od użytych narzędzi. Na przykład, technika „Kradzież poświadczeń z procesu LSASS” jest TTP. Atakujący może jej dokonać za pomocą narzędzia Mimikatz, ale może też użyć dziesiątek innych, niestandardowych narzędzi.

Dojrzały zespół bezpieczeństwa, zamiast pytać „czy widzę w logach hash pliku Mimikatz.exe?”, pyta „czy widzę w logach jakikolwiek proces, który w nietypowy sposób próbuje uzyskać dostęp do pamięci procesu LSASS?”. Wykrywanie na poziomie TTPs jest znacznie bardziej odporne na zmiany narzędzi przez atakujących. Pozwala ono na stworzenie reguł detekcji i hipotez threat huntingowych, które pozostaną skuteczne, nawet gdy pojawi się zupełnie nowe, nieznane złośliwe oprogramowanie.

Zainteresowała Cię nasza oferta? Zapytaj o szczegóły

Skontaktuj się z nami, aby odkryć, jak nasze kompleksowe rozwiązania IT mogą zrewolucjonizować Twoją firmę, zwiększając bezpieczeństwo i efektywność działania w każdej sytuacji.

?
?
Zapoznałem/łam się i akceptuję  politykę prywatności.

O autorze:
Justyna Kalbarczyk

Justyna to wszechstronna specjalistka z bogatym doświadczeniem w obszarach IT, bezpieczeństwa, rozwoju biznesu i zarządzania projektami. Jako kluczowy członek zespołu nFlo, pełni rolę handlową, koncentrując się na budowaniu i utrzymywaniu relacji z klientami oraz analizie ich potrzeb technologicznych i biznesowych.

W swojej pracy Justyna kieruje się zasadami profesjonalizmu, innowacyjności i zorientowania na klienta. Jej unikalne podejście polega na łączeniu głębokiej wiedzy technicznej z rozwiniętymi kompetencjami miękkimi, co pozwala jej skutecznie prowadzić złożone projekty w zakresie audytów bezpieczeństwa, testów penetracyjnych oraz doradztwa strategicznego w obszarze IT.

Justyna szczególnie interesuje się obszarem cyberbezpieczeństwa i infrastruktury IT. Skupia się na dostarczaniu kompleksowych rozwiązań, które nie tylko odpowiadają na bieżące potrzeby klientów, ale także przygotowują ich na przyszłe wyzwania technologiczne. Jej specjalizacja obejmuje zarówno aspekty techniczne, jak i strategiczne zarządzanie bezpieczeństwem IT.

Aktywnie angażuje się w rozwój branży IT, dzieląc się swoją wiedzą poprzez publikacje artykułów i udział w projektach edukacyjnych. Wierzy, że kluczem do sukcesu w dynamicznym świecie technologii jest ciągłe doskonalenie umiejętności oraz umiejętność efektywnej komunikacji między światem biznesu a IT.