FOTC
  • Produkty
    • Google Workspace
    • Google Cloud
    • Chrome Enterprise
    • Zendesk
  • Usługi
        • Google Workspace
          • Google AI
          • Migracja
          • Audyt bezpieczeństwa
          • Wsparcie techniczne
          • Zarządzanie
        • Google Cloud
          • Elastyczne usługi cloud engineering
          • Droga do Chmury
          • Landing Zone
          • Audyt kosztów chmury
  • Klienci
  • Firma
    • O nas
    • Program partnerski
    • Kariera
    • Blog
Kontakt
ro pl hu en
  • Polityka Prywatności

Nie przegap! Nowy webinar: AI w firmie – ryzyka prawne i bariery wdrożeniowe

Zarezerwuj miejsce

PL > Blog > Technologie > Hakerstwo z AI – Jak cyberprzestępcy wykorzystują sztuczną inteligencję

Hakerstwo z AI – Jak cyberprzestępcy wykorzystują sztuczną inteligencję

Gabriel Marchwant 2 lipca 2025

Cyberataki i włamania w IT to zagrożenie, które w ostatnich latach mocno narasta. Sytuacja ta przypomina nieco wyścig zbrojeń – podczas gdy cyberprzestępcy opracowują coraz bardziej wyrafinowane sposoby oszustw, specjaliści do spraw bezpieczeństwa na bieżąco starają się zamykać wszelkie luki w swoich systemach.

Na szczęście FOTC trzyma rękę na pulsie, podczas webinaru FOTC pt. „Hakerstwo z AI: Jak cyberprzestępcy wykorzystują sztuczną inteligencję” nasz ekspert, Gabriel Marchwant, inżynier ds. bezpieczeństwa w chmurze z FOTC, podzielił się bezcennymi spostrzeżeniami na temat działania cyberprzestępców i bezpieczeństwa AI.

Bezpieczeństwo AI – obecny krajobraz

Sztuczna inteligencja przekształciła sposób działania cyberprzestępców. Ich ataki są szybsze, bardziej adaptacyjne i zuchwałe. Jak sytuacja prezentuje się w liczbach?

Współczesna cyberprzestępczość to dobrze zorganizowane grupy, nierzadko wspierane przez państwa. Wykorzystują one AI do automatyzacji kampanii phishingowych, tworzenia deepfake’ów, generowania złośliwego oprogramowania i przeprowadzania oszustw. 

Czym są phishing i deepfake?

Phishing to rodzaj oszustwa, w którym przestępcy podszywają się pod zaufane instytucje (np. bank, urząd, znana firma) lub osoby, aby wyłudzić od nas poufne dane. Wysyłają fałszywe wiadomości e-mail, SMS-y lub dzwonią, udając kogoś innego. 

Celem jest skłonienie nas do kliknięcia w złośliwy link, otwarcia zainfekowanego załącznika lub podania numerów kart kredytowych czy danych do logowania. Informacje te są następnie wykorzystywane do kradzieży tożsamości, pieniędzy lub zainfekowania urządzenia ofiary. 

Deepfake to zaawansowana technologia, która wykorzystuje sztuczną inteligencję do tworzenia fałszywych, ale niezwykle realistycznych filmów, nagrań głosowych lub zdjęć. Dzięki niej można stworzyć wideo, na którym dana osoba mówi lub robi coś, czego nigdy nie zrobiła, a jej głos brzmi identycznie jak w rzeczywistości. 

Może to być wykorzystane do dezinformacji lub oszustw np. podszywanie się pod prezesa firmy w rozmowie telefonicznej w celu wyłudzenia przelewu.

Przykłady cyberprzestępstw

  • W 2019 roku oszuści wykorzystali deepfake CEO firmy, aby przekonać dyrektora finansowego do przelania 220 000 euro na fałszywe konto. Wyobraź sobie, jak trudno byłoby zauważyć oszustwo, gdy widzisz i słyszysz kogoś, kogo znasz i komu ufasz. 
  • Międzynarodowa korporacja w Chinach padła ofiarą ataku z wykorzystaniem generowanej przez AI strony internetowej, co doprowadziło do transferu 25 milionów dolarów na fałszywą bramkę płatniczą.
  • Zespoły hakerskie, takie jak Yakob Boys z Nigerii, wykorzystują deepfake’owe rozmowy wideo, aby oszukiwać osoby szukające miłości online, wykorzystując samotność i emocje do kradzieży pieniędzy.

W takich przypadkach nie ochroni nas jeden program, jak to było dotychczas, kiedy korzysaliśmy z antywirusów. Większość naruszeń bezpieczeństwa wynika z błędów ludzkich. Dlatego, aby zminimalizować ryzyko, kluczowa okazuje się komunikacja oraz edukacja.

AI jako broń w walce z cyberprzestępczością

Obecna sytuacja przypomina ciągłą wymianę „ciosów”. Z jednej strony cyberprzestępcy szukają coraz efektywniejszych sposobów na oszustwo. Z drugiej – firmy takie jak Google wykorzystują zaawansowane uczenie maszynowe do wykrywania zagrożeń, filtrowania złośliwej zawartości i ochrony danych w czasie rzeczywistym.

Jak udoskonala się bezpieczeństwo AI:

  • Zwiększona wydajność i szybkość – AI może analizować ogromne ilości danych w ułamku sekundy, identyfikując anomalie i potencjalne zagrożenia, które umknęłyby ludzkiemu oku.
  • Wykrywanie wzorców ataków – Narzędzia takie jak Google Security Command Center wykorzystuje AI do tworzenia wzorców ataków na podstawie skanowania infrastruktury, co pozwala na proaktywne wzmacnianie bezpieczeństwa.
  • Obrona przed botami i atakami DDoS – Cloud Armor pomaga zwalczać złośliwy ruch i ataki botów, chroniąc usługi przed przeciążeniem.
  • Ochrona danych wrażliwych – AI może automatycznie identyfikować i maskować wrażliwe dane w bazach danych, uniemożliwiając ich kradzież.
  • Udoskonalone filtrowanie spamu i phishingu – Gmail wykorzystuje filtry oparte na AI, aby blokować 99,9% spamu, phishingu i złośliwego oprogramowania, zanim dotrą do naszych skrzynek. 

Bezpieczeństwo AI w pracy

Jednak skoro z AI korzystają cyberprzestępcy, to czy firmy powinny dawać przyzwolenie na codzienne korzystanie ze sztucznej inteligencji?

Uważamy, że AI, jako narzędzie, powinno być postrzegane przez pryzmat szans i zagrożeń, jakie ze sobą niesie – podobnie jak każda inna technologia. Potencjalne, szkodliwe zastosowania nie powinny jednak prowadzić do rezygnacji z ogromnych możliwości, które oferuje.

Warto podkreślić, że korzystanie z renomowanych dużych modeli językowych (LLM), takich jak Gemini czy ChatGPT, nie oznacza narażania się na atak cyberprzestępcy. Te platformy, rozwijane przez globalne firmy, inwestują ogromne środki w bezpieczeństwo AI. 

Ryzyko nie polega na tym, że sztuczna inteligencja jest miejscem ataku, lecz na tym, że staje się ona narzędziem w rękach przestępców.

Warto jednak zwrócić uwagę, że istnieją przypadki nieodpowiedniego użycia LLM-ów przez użytkownika. Przykładem może być wprowadzanie poufnych danych do publicznie dostępnych modeli, a to grozi wyciekiem wrażliwych informacji. 

Kluczowe zasady dla tworzenia polityk korzystania z AI w firmie: 

Wskazówki dotyczące bezpieczeństwa AI

W obliczu rosnących zagrożeń, świadomość i odpowiednie nawyki każdego pracownika są kluczowe:

  • Uważnie czytaj wiadomości – Generowane przez AI komunikaty mogą być podejrzanie perfekcyjne, a innym razem (zwłaszcza w języku polskim) dziwnie nienaturalne. Warto zwracać uwagę na odmiany wyrazów i związki frazeologiczne. Zawsze czytaj uważnie i zwracaj uwagę na detale. Jeśli cokolwiek wzbudza Twoje wątpliwości, skontaktuj się z nadawcą inną drogą niż ta, którą otrzymałeś wiadomość – na przykład telefonicznie.
  • Zachowaj ostrożność przy połączeniach głosowych –Deepfake’owe rozmowy głosowe są coraz bardziej przekonujące.
  • Zgłaszaj podejrzane działania – Każda firma powinna mieć jasną procedurę zgłaszania podejrzanych incydentów bezpieczeństwa.
  • Myśl, zanim klikniesz – Zawsze zastanów się, zanim klikniesz w link lub otworzysz załącznik, zwłaszcza jeśli e-mail jest nieoczekiwany, pilny lub próbuje wywrzeć na Tobie presję emocjonalną.
  • Sprawdzaj adresy e-mail i adresy URL – Zawsze najedź kursorem myszy na link, aby zobaczyć dokąd naprawdę prowadzi, zanim go klikniesz.
  • Korzystaj z narzędzi antyphishingowych – Wiele narzędzi, w tym te oparte na AI, może pomóc w blokowaniu złośliwych wiadomości.
  • Wdrożenie uwierzytelniania wieloskładnikowego (MFA) – To jedna z najskuteczniejszych barier, nawet jeśli Twoje hasło zostanie skradzione.

Przyszłość bezpieczeństwa AI

Jak pokazuje historia spamu, trwająca od lat 90. walka między atakującymi a obrońcami jest nieustanna. Google, dzięki ogromnym inwestycjom w AI stał się liderem w ochronie danych, blokując miliardy złośliwych wiadomości każdego dnia. Jednak bezpieczeństwo wciąż w dużej mierze zależy od naszych własnych decyzji.

Doskonałym przykładem jest tu incydent z marca 2025 roku, kiedy to dziennikarz uzyskał dostęp do poufnych informacji z grupy Signal, w której znajdowali się wysokiej rangi amerykańscy urzędnicy.

Oprogramowanie Signal było bezpieczne, ale błąd ludzki, jakim było dodanie niewłaściwej osoby do grupy, doprowadził do naruszenia bezpieczeństwa. 

Podsumowanie

Jak widzisz, sytuacja w świecie technologii jest dynamiczna. W FOTC naszym celem jest dostarczanie rozwiązań, które zapewniają płynne wdrożenie, integrację i wsparcie technologiczne.

Czytając ten artykuł, zastanawiasz się, jak Twoja firma może lepiej wykorzystać potencjał AI, jednocześnie dbając o bezpieczeństwo? Doskonale rozumiemy te wyzwania.

Oferujemy sesje szkoleniowe, które rozwiną wiedzę Twojego zespołu zarówno w zakresie efektywnego wdrażania AI w procesach pracy, jak i kluczowych aspektów bezpieczeństwa związanych z jej użytkowaniem.

Skontaktuj się z nami, aby dowiedzieć się, jak możemy pomóc Ci wykorzystać AI do wzmocnienia Twojej obrony.

Czym są phishing i deepfake?
AI jako broń w walce z cyberprzestępczością
Bezpieczeństwo AI w pracy
Przyszłość bezpieczeństwa AI
Usługi
  • Droga do Chmury-Strategia i Roadmapa
  • Landing zone
  • Szkolenia
Produkty
  • Google Workspace
  • Google Cloud
  • Google Workspace for Education
Branża
  • Administracja publiczna
  • Edukacja
  • Gaming
  • Małe i średnie przedsiębiorstwa
  • Ochrona zdrowia
  • Retail
Wiedza
  • Blog
  • Case Studies
  • Dyrektywa NIS2
Firma
  • O nas
  • Kariera
  • Kontakt
  • Program Partnerski
  • Audyt bezpieczeństwa
  • Google Workspace Support
  • Polityka Prywatności
  • Regulamin
Copyright © 2014 – 2024 Fly On The Cloud sp. z o.o. KRS: 0000500884, NIP: 8971797086, REGON: 022370270