SZTUCZNA INTELIGENCJA
wróg czy sojusznik cyberbezpieczeństwa?
RAPORT ATSummit 2023 !
Odkryj Przyszłość Cyberbezpieczeństwa i Sztucznej Inteligencji z Raportem ATS 2023
Raport „Sztuczna inteligencja – wróg czy sojusznik cyberbezpieczeństwa?”- to najnowsze źródło wiedzy o przyszłości cyberbezpieczeństwa i sztucznej inteligencji. Ten unikalny materiał informacyjny pozwoli Ci spojrzeć w przyszłość technologii, przedstawiając najnowsze trendy, wyzwania i innowacje w dziedzinie cyberbezpieczeństwa i AI. Podsumowanie Konferencji ATSummit 2023 połączone z dużą dawką wiedzy.
Obejrzyj debatę, która odbyła się 12 grudnia, 2023 i towarzyszyła premierze raportu
W debacie udział wzięli:
Komentarz technologiczny:
Prowadzenie debaty:
Krzysztof Piątek, Evention
AI w rękach cyberprzestępców
Autor: Andrzej Gontarza
Generowanie fałszywych treści, dezinformacja, a nawet podszywanie się pod członków rodziny lub znane osoby – to wszystko jest możliwe i już stosowane przez cyberprzestępców podczas ataków.
Aktor Tom Hanks musiał niedawno tłumaczyć się, że nie ma nic wspólnego z zamieszczonym w internecie filmem promującym firmę dentystyczną. Reklamodawca stworzył bez jego zgody wirtualną kopię aktora. Z podobnym przypadkiem mieliśmy też do czynienia w Polsce. Fałszywa postać premiera Mateusza Morawieckiego zachęcała do rzekomych inwestycji w Baltic Pipe. Podobne filmy stworzono z postacią Elona Muska. Eksperci szacują, że przestępcom udało się w ten sposób wyłudzić ok. 2 mln dolarów.
Deepfake
Deepfake to technologia tworzenia obrazów bądź wypowiedzi mających udawać prawdziwe osoby lub sytuacje. Wykorzystują na przykład wizerunek znanych osób (polityków, celebrytów) do przekazywania fałszywych informacji. Deepfake może też skutecznie wspierać ataki phishingowe, które są najczęstszym rodzajem ataków rejestrowanych przez CERT Polska.
Fałszywy wnuczek jak prawdziwy
Oszuści wykorzystują technologię deepfake w metodzie „na wnuczka”. Do starszych osób dzwoni wygenerowany cyfrowo głos łudząco podobny do głosu bliskiej osoby i prosi o pilną pomoc finansową. Fałszywa postać krewnego czy znajomego może nawet pojawiać się też na ekranie podczas rozmowy przez komunikator. Ułatwieniem dla przestępców są publikowane w mediach społecznościowych zdjęcia i nagrania. Łatwo pobrać z nich próbki głosu lub wizerunku do stworzenia fałszywego przekazu.
W razie potrzeby można też nagrać głos podczas zaaranżowanej rozmowy telefonicznej. W ten sam sposób oszuści potrafią podszywać się też pod pracowników np. banku, namawiając ofiary do niekorzystnych dla nich działań. To może działać też w drugą stronę: przestępcy są w stanie podszywać się pod klienta banku i autoryzować transakcje, np. przelew dużej sumy.
Deepfake może zostać również użyty do dezinformacji, np. budowania negatywnego wizerunku. Tworzone są na przykład filmy, w których przypisuje się wybranym osobom wypowiedzi, jakie nigdy nie padły. Znany jest przykład grupy nowojorskiej młodzieży, która przypisała dyrektorowi szkoły groźby pod adresem uczniów. W ten sam sposób – pokazując nieistniejące wystąpienia polityków z odpowiednio spreparowanymi treściami – można również wpływać na wyborców.
AI w rękach cyberprzestępców: ataki
Sztuczna inteligencja pomaga w przeprowadzaniu ataków phishingowych, ponieważ narzędzia bazujące na dużych modelach językowych pozwalają na generowanie fałszywych treści (np. e-maili, SMS-ów) i rozsyłanie ich na bardzo dużą skalę (m.in. w różnych językach). Algorytmy ułatwiają poszukiwanie najbardziej skutecznych komunikatów, potrafią też omijać filtry antyspamowe, które analizują strukturę przesyłanego dokumentu i skutecznie blokują prosty spam. Szczególnie niebezpieczny jest spear phishing, zwany phishingiem sprofilowanym. W tym przypadku atak jest kierowany do konkretnie wybranej osoby lub organizacji. Przykładem mogą być e-maile generowane przez AI do wszystkich pracowników w firmie wysłane rzekomo od prezesa (podpisane imieniem i nazwiskiem osoby, która naprawdę pracuje w organizacji) z prośbą np. o szybkie otworzenie i wydrukowanie załączonego pliku lub kliknięcie w link.
Taki atak ma o wiele większe szanse powodzenia niż „tradycyjne” e-maile od nigeryjskiego księcia, który chce wręczyć przypadkowej osobie 10 mln dolarów.
Zauważyli to naukowcy zajmujący się rozwojem i trenowaniem programów AI...
Do artykułu komentarze udzielili: Robert Grabowski z CERT, Orange Polska oraz Sebastian Kondraszuk, kierownik CERT Polska, NASK.
Chcesz wiedzieć więcej? Pobierz raport za darmo!
KRZYSZTOF PIĄTEK
Director of Business Development
m. + 48 +48 883 114 005
e: krzysztof.piatek@evention.pl