CISA v mezinárodní spolupráci s vládními agenturami a soukromým sektorem vydala příručku proti zneužívání AI kyberzločinci
WASHINGTON — Agentura CISA spolu s FBI, NSA, australskou ASD, kanadským CCCS, britským NCSC a dalšími partnery zveřejnila příručku Mitigating the Risks of Malicious Use of Artificial Intelligence. Dokument radí vývojářům velkých jazykových modelů (LLM) a poskytovatelům veřejných AI služeb, jak zabránit tomu, aby jejich technologie sloužily kyberzločincům.
Kyberzločinci stále častěji využívají veřejné i komerční AI modely k masové tvorbě přesvědčivého phishingu, generování funkčního škodlivého kódu bez hlubších znalostí, obcházení bezpečnostních filtrů a rychlému vývoji nových variant malwaru. Podle zveřejněných dat se v roce 2025 téměř zdvojnásobil počet útoků, kde AI pomáhala při tvorbě nebo přizpůsobení exploitů.

„Umělá inteligence dramaticky snižuje technickou bariéru vstupu do kyberkriminality,“ uvedla ředitelka CISA Jen Easterly. „Tato příručka dává vývojářům a provozovatelům konkrétní nástroje, jak toto zneužití výrazně ztížit.“
Klíčová doporučení zahrnují vícevrstvé filtry promptů a výstupů, pravidelné red teaming s testy jailbreaků, monitorování podezřelých vzorců v reálném čase, sdílení indikátorů zneužití mezi poskytovateli a povinné logování rizikových dotazů.
Celý dokument je volně ke stažení na https://www.cisa.gov/ai a https://www.ncsc.gov.uk/collection/ai-security.
Další články

Bezprecedentní DDoS útok odhalil křehkost online světa

Ověřená rozšíření v Chrome a Edge sledovala miliony uživatelů

