SZTUCZNA INTELIGENCJA
wróg czy sojusznik cyberbezpieczeństwa?
RAPORT ATSummit!
Odkryj Przyszłość Cyberbezpieczeństwa i Sztucznej Inteligencji z Raportem ATS
Raport „Sztuczna inteligencja – wróg czy sojusznik cyberbezpieczeństwa?”- to najnowsze źródło wiedzy o przyszłości cyberbezpieczeństwa i sztucznej inteligencji. Ten unikalny materiał informacyjny pozwoli Ci spojrzeć w przyszłość technologii, przedstawiając najnowsze trendy, wyzwania i innowacje w dziedzinie cyberbezpieczeństwa i AI. Podsumowanie Konferencji ATSummit 2023 połączone z dużą dawką wiedzy.
Zastanawiasz się, czy warto?
Obejrzyj debatę i przeczytaj artykuł z raportu!
W debacie udział wzięli:
Komentarz technologiczny:
Prowadzenie debaty:
AI w rękach cyberprzestępców
Autor: Andrzej Gontarza
Generowanie fałszywych treści, dezinformacja, a nawet podszywanie się pod członków rodziny lub znane osoby – to wszystko jest możliwe i już stosowane przez cyberprzestępców podczas ataków.
Aktor Tom Hanks musiał niedawno tłumaczyć się, że nie ma nic wspólnego z zamieszczonym w internecie filmem promującym firmę dentystyczną. Reklamodawca stworzył bez jego zgody wirtualną kopię aktora. Z podobnym przypadkiem mieliśmy też do czynienia w Polsce. Fałszywa postać premiera Mateusza Morawieckiego zachęcała do rzekomych inwestycji w Baltic Pipe. Podobne filmy stworzono z postacią Elona Muska. Eksperci szacują, że przestępcom udało się w ten sposób wyłudzić ok. 2 mln dolarów.
Deepfake
Deepfake to technologia tworzenia obrazów bądź wypowiedzi mających udawać prawdziwe osoby lub sytuacje. Wykorzystują na przykład wizerunek znanych osób (polityków, celebrytów) do przekazywania fałszywych informacji. Deepfake może też skutecznie wspierać ataki phishingowe, które są najczęstszym rodzajem ataków rejestrowanych przez CERT Polska.
Fałszywy wnuczek jak prawdziwy
Oszuści wykorzystują technologię deepfake w metodzie „na wnuczka”. Do starszych osób dzwoni wygenerowany cyfrowo głos łudząco podobny do głosu bliskiej osoby i prosi o pilną pomoc finansową. Fałszywa postać krewnego czy znajomego może nawet pojawiać się też na ekranie podczas rozmowy przez komunikator. Ułatwieniem dla przestępców są publikowane w mediach społecznościowych zdjęcia i nagrania. Łatwo pobrać z nich próbki głosu lub wizerunku do stworzenia fałszywego przekazu.
W razie potrzeby można też nagrać głos podczas zaaranżowanej rozmowy telefonicznej. W ten sam sposób oszuści potrafią podszywać się też pod pracowników np. banku, namawiając ofiary do niekorzystnych dla nich działań. To może działać też w drugą stronę: przestępcy są w stanie podszywać się pod klienta banku i autoryzować transakcje, np. przelew dużej sumy.
Deepfake może zostać również użyty do dezinformacji, np. budowania negatywnego wizerunku. Tworzone są na przykład filmy, w których przypisuje się wybranym osobom wypowiedzi, jakie nigdy nie padły. Znany jest przykład grupy nowojorskiej młodzieży, która przypisała dyrektorowi szkoły groźby pod adresem uczniów. W ten sam sposób – pokazując nieistniejące wystąpienia polityków z odpowiednio spreparowanymi treściami – można również wpływać na wyborców.
AI w rękach cyberprzestępców: ataki
Sztuczna inteligencja pomaga w przeprowadzaniu ataków phishingowych, ponieważ narzędzia bazujące na dużych modelach językowych pozwalają na generowanie fałszywych treści (np. e-maili, SMS-ów) i rozsyłanie ich na bardzo dużą skalę (m.in. w różnych językach). Algorytmy ułatwiają poszukiwanie najbardziej skutecznych komunikatów, potrafią też omijać filtry antyspamowe, które analizują strukturę przesyłanego dokumentu i skutecznie blokują prosty spam. Szczególnie niebezpieczny jest spear phishing, zwany phishingiem sprofilowanym. W tym przypadku atak jest kierowany do konkretnie wybranej osoby lub organizacji. Przykładem mogą być e-maile generowane przez AI do wszystkich pracowników w firmie wysłane rzekomo od prezesa (podpisane imieniem i nazwiskiem osoby, która naprawdę pracuje w organizacji) z prośbą np. o szybkie otworzenie i wydrukowanie załączonego pliku lub kliknięcie w link. Taki atak ma o wiele większe szanse powodzenia niż „tradycyjne” e-maile od nigeryjskiego księcia, który chce wręczyć przypadkowej osobie 10 mln dolarów.
Ciemna strona software development
Sztuczna inteligencja dostarcza też narzędzi do wspomagania prac nad tworzeniem złośliwego oprogramowania, jak również przygotowania i przeprowadzenia ataków na firmowe środowiska oraz systemy informatyczne, a także firmowe zasoby informacji i zbiory danych.
Zauważyli to naukowcy zajmujący się rozwojem i trenowaniem programów AI do gry w szachy – często zaskakiwały arcymistrzów nietypowymi zagraniami. Ta cecha AI może być szczególnie groźna w przypadku wykorzystania przez przestępców, ponieważ pozwala ominąć zabezpieczenia przygotowane przez doświadczonych specjalistów.
Zagrożenie to może być związane z problemem niewyjaśnialności sztucznej inteligencji. Gdy algorytmy funkcjonują na zasadzie tzw. „czarnej skrzynki”, trudno jest określić, jakim "tokiem myślenia" pójdzie aplikacja po wprowadzeniu do niej danych początkowych. Grupy przestępcze dysponują zaawansowanymi rozwiązaniami, które pozwalają na przedostanie się w niezauważony sposób do środowiska IT organizacji i jego „ciche” skanowanie w poszukiwaniu słabych punktów i największych podatności. Złośliwy program może samodzielnie na podstawie prowadzonej analizy zasobów, podjąć decyzję o czasie i celu ataku, by dostać się na przykład do najbardziej interesujących przestępców danych. Systemy korzystające z AI mogą być też wykorzystywane do oszukiwania systemów bezpieczeństwa. Przykład stanowi oszukanie systemu zarządzania prawami dostępu do firmowych zasobów przez podstawienie spreparowanych cyfrowo rysów twarzy w punktach uwierzytelnienia biometrycznego. Inny sposób to przechwycenie hasła na podstawie podsłuchiwania dźwięku klawiatury podczas pisania. Naukowcy przeprowadzili eksperyment, podczas którego uzyskali skuteczność rozszyfrowania na poziomie 95%, jeżeli nagranie było dobrej jakości.
AI dla każdego
Warto zwrócić uwagę na dostępność i łatwość obsługi rozwiązań o charakterze generatywno-transformacyjnym, typu ChatGPT i jemu podobne. Oferują one bardzo zaawansowaną technologię, z której można korzystać bez specjalistycznej wiedzy informatycznej. Z łatwością są w stanie z nich korzystać nawet początkujący przestępcy, by pomóc sobie w przeprowadzeniu ataku czy napisaniu złośliwego oprogramowania. Poza tym osoby bez technicznego przygotowania mogą też być zatrudniane przez gangi do prowadzenia konkretnych działań.