Novinky

Cyber Resilience Act: Praktický průvodce implementací pro IoT a embedded systémy

Cyber Resilience Act: Praktický průvodce implementací pro IoT a embedded systémy

Date: Zobrazení: 26

Cyber Resilience Act: Praktický průvodce implementací pro IoT a embedded systémy

Cyber Resilience Act (CRA) představuje dosud opomíjený regulatorní rámec Evropské unie, který stanovuje povinné kybernetické bezpečnostní standardy pro produkty s digitálními prvky (Products with Digital Elements - PDE). CRA vstoupil v platnost 10. prosince 2024, přičemž hlavní povinnosti se budou uplatňovat od 11. prosince 2027. Tato regulace má zásadní dopad na výrobce IoT a embedded systémů, kteří musí zajistit kybernetickou bezpečnost svých produktů po celou dobu jejich životního cyklu.

Image
Image

Harmonogram a přechodná období


  • 10. 12. 2024: CRA vstupuje v platnost
  • 11. 6. 2026: Autorizace orgánů posuzování shody (CAB)
  • 11. 9. 2026: Povinnost reportingu zranitelností a incidentů
  • 11. 12. 2027: Povinná plná compliance
  • Během přechodného období mají výrobci 36 měsíců na celkovou implementaci, 21 měsíců na reporting a 18 měsíců na notifikaci CAB.

  • 36 měsíců (do prosince 2027):
  • Hlavní implementační období pro většinu povinností
  • Čas na adaptaci vývojových procesů
  • Implementace security by design principů
  • Příprava technické dokumentace
  • 21 měsíců (do září 2026):
  • Kratší období pro reportingové povinnosti
  • Implementace vulnerability disclosure procesů
  • Zavedení incident response capabilities
  • Koordinace s CSIRT a ENISA
  • 18 měsíců (do června 2026):
  • Nejkratší období pro notifikace CAB
  • Příprava certifikačních procesů
  • Identifikace vhodných notifikovaných orgánů
  • Příprava conformity assessment dokumentace

Kontext a motivace


  • CRA byl přijat jako reakce na několik kritických problémů:
  • Rostoucí počet kybernetických útoků na IoT zařízení -- každé 39 sekund dochází k kybernetickému útoku podle University of Maryland
  • Nedostatečná kybernetická bezpečnost produktů -- spotřebitelé a podniky často nevědí, které produkty jsou kyberneticky bezpečné
  • Fragmentace trhu -- různé národní požadavky vytvářely právní nejistotu pro výrobce
  • Absence "duty of care" - výrobci nebyli povinni zajišťovat bezpečnost po celou dobu životního cyklu produktu
Image
Image

Cíle a dopady CRA


  • Primární cíle:
  • Zajištění minimální úrovně kybernetické bezpečnosti pro všechny připojené produkty na EU trhu
  • Zvýšení transparentnosti a informovanosti zákazníků
  • Harmonizace požadavků napříč EU
  • Posílení odpovědnosti výrobců za bezpečnost produktů
  • Očekávané dopady:
  • Snížení počtu úspěšných kybernetických útoků na IoT zařízení
  • Zvýšení důvěry spotřebitelů v digitální produkty
  • Zlepšení celkové kybernetické odolnosti EU
  • Vytvoření konkurenční výhody pro EU výrobce

Rozsah působnosti CRA

CRA se vztahuje na všechny produkty s digitálními prvky, které lze připojit k síti nebo jinému zařízení. Zahrnuje embedded systémy, IoT, síťová zařízení, software i mikrokontroléry. Výjimku tvoří např. zdravotnické prostředky, automotive a určité open-source softwary.

Výrobci musí zavést cyklické hodnocení rizik během vývoje a provozu. Používají se nástroje jako QuBA nebo MoRA, metodiky jako NIST a principy Secure by Design. Bezpečnost musí být součástí všech fází SDLC – od návrhu (threat modeling, secure architecture) přes vývoj (SAST/DAST, secure coding) až po nasazení (secure boot, OTA aktualizace).

Kategorizace rizik a posuzování shody


  • Produkty jsou rozděleny do tří rizikových tříd:
  • Default (nízké riziko) -- vlastní posouzení shody
  • Important (střední riziko) -- posouzení třetí stranou
  • Critical (vysoké riziko) -- certifikace dle EUCC

  • K odpovídajícím třídám se vážou postupy CAP1 až CAP3.
  • CRA ukládá požadavky na:
  • autentizace a řízení přístupů,
  • šifrování a integritu dat,
  • SBOM (Software Bill of Materials) jako povinný výčet komponent a závislostí.

Výrobci musí reportovat aktivně zneužité zranitelnosti do 24 hodin. Využívá se koordinovaný disclosure proces včetně notifikace CSIRT, ENISA a zákazníků.

Image

AI systémy jsou často zpřístupněny prostřednictvím rozhraní API, což je praktické, ale zároveň zvyšuje plochu útoku, pokud nejsou API odpovídajícím způsobem chráněna. Studie společnosti Orca Security z roku 2023 například zjistila, že 45 % úložišť v rámci Amazon SageMaker – populární AI platformy – využívá výchozí nezabezpečené nastavení, což znamená otevřený přístup k citlivým datům a modelům bez autentizace.

Organizace, které zavádějí AI technologie bez centrální správy nebo bezpečnostního dohledu, jsou zranitelné vůči útokům, jež nemají v tradičních IT systémech obdobu. Klíčová opatření zahrnují:


  • Integraci bezpečnostních testů do vývoje a nasazování AI (tzv. AI SecOps)
  • Implementaci technik pro ochranu modelů (např. differential privacy, watermarking modelů)
  • Audit a řízení API přístupů, včetně sledování anomálií a rate limiting
  • Pravidelné školení vývojářů a datových týmů v oblasti AI bezpečnosti

Sociální inženýrství a deepfakes

Rozvoj umělé inteligence nepřináší pouze zvýšení produktivity a efektivity, ale také zásadně mění charakter kybernetických hrozeb. Mezi nejrychleji se vyvíjející a zároveň nejzávažnější hrozby patří nové formy sociálního inženýrství, které využívají generativní AI k vytváření realistických podvodných obsahů – tzv. deepfakes. Nekontrolovaná adopce AI v organizacích výrazně zvyšuje riziko, že se zaměstnanci, procesy nebo technologie stanou cílem těchto útoků.

Tradiční phishingové e-maily bývaly poměrně snadno rozpoznatelné díky jazykovým chybám nebo neautentickému obsahu. S využitím generativní AI je možné automatizovaně generovat vysoce personalizované zprávy, které přesně imitují jazyk, tón a kontext komunikace konkrétního uživatele nebo vedoucího pracovníka. Takové útoky (tzv. spear phishing) jsou mnohem efektivnější a hůře detekovatelné i pro pokročilé e-mailové filtry.

Deepfake technologie umožňuje vytvářet falešné video- a audiozáznamy, které jsou na první pohled nerozeznatelné od autentických. V kontextu firemního prostředí se tato technologie využívá k:


  • Obcházení biometrických autentizačních systémů (např. rozpoznání obličeje nebo hlasu)
  • Vytváření falešných vystoupení managementu pro účely dezinformace nebo manipulace investorů
  • Kompromitaci důvěryhodnosti klíčových osob (reputační útoky)
Image

Moderní AI dokáže na základě několika sekund záznamu vygenerovat hlasovou repliku konkrétní osoby (např. ElevenLabs, Resemble.ai), včetně tónu, intonace a jazykových vzorců. Útočníci tímto způsobem imitují hlasy výkonných ředitelů nebo finančních ředitelů a provádějí telefonické podvody s cílem autorizovat transakce, změnit čísla účtů nebo získat přístup k důvěrným údajům. Vzhledem k důvěře v hlas jako autentifikační faktor se jedná o velmi nebezpečnou techniku.

S pokročilou AI je nyní možné v reálném čase upravovat obsah konverzací, a to jak textových (např. v chatovacích aplikacích), tak hlasových. To umožňuje:


  • Vložit klíčová slova nebo instrukce do telefonních hovorů
  • Manipulovat se záznamy komunikace pro interní šetření
  • Vytvářet falešné důkazy v právních či compliance kontextech

Aby se organizace účinně bránila těmto novým typům hrozeb, musí přistupovat k ochraně před deepfakes a AI-enhanced sociálním inženýrstvím jako ke strategickému bezpečnostnímu riziku:


  • Zavést technologickou detekci deepfake obsahu (např. pomocí forenzní AI)
  • Školit zaměstnance na rozpoznávání personalizovaných phishingových útoků
  • Implementovat vícefaktorovou autentizaci, která nespoléhá pouze na biometrické nebo hlasové prvky
  • Vytvářet interní postupy pro ověřování netypických požadavků např. při finančních převodech
Image

Závěrečné shrnutí

Nekontrolovaná adopce nástrojů umělé inteligence v organizacích – známá jako shadow AI – představuje zásadní výzvu pro kybernetickou bezpečnost, ochranu dat i regulatorní compliance. Ačkoli AI nabízí obrovský potenciál pro zvyšování efektivity a automatizaci firemních procesů, její neregulované využívání zaměstnanci mimo dohled IT a bezpečnostních týmů vytváří nové, často obtížně detekovatelné rizikové scénáře.

Firmy dnes čelí nejen riziku úniku důvěrných informací, duševního vlastnictví a osobních údajů, ale i specifickým technickým hrozbám včetně otravy trénovacích dat, prompt injection útoků či zneužití nezabezpečených API rozhraní. Současně narůstají pokročilé formy sociálního inženýrství, jako jsou AI-generované phishingové útoky, deepfake nahrávky a hlasové klonování, které oslabují důvěru v interní i externí komunikaci.

Z pohledu odpovědného řízení je proto nezbytné, aby organizace:


  • Zaváděly centralizované řízení a governance AI nástrojů
  • Implementovaly bezpečnostní a právní kontroly nad zpracováním dat
  • Investovaly do školení zaměstnanců a detekčních technologií
  • Začlenily AI do svých procesů řízení rizik a compliance

Pouze tak lze využít přínosy AI, aniž by došlo k ohrožení bezpečnosti, důvěryhodnosti a právní odpovědnosti organizace.

AI není jen technologie, ale strategický partner pro růst. V ACRESIA Consulting pomáháme firmám implementovat umělou inteligenci tak, aby:


  • Posilujete procesy bez narušení bezpečnosti
  • Máte plnou kontrolu nad každou fází nasazení
  • Udržujete lidský rozměr organizace místo slepé automatizace
  • Rostete s jistotou, že AI pracuje pro vás, ne proti vám

Naše řešení stavíme na třech pilířích: vaše obchodní cíle, ověřené AI nástroje a transparentní etické standardy.

Další články