Kybernetická bezpečnost

AI Act: Evropa nastavuje pravidla pro umělou inteligenci

Evropská unie přijala první komplexní právní rámec pro umělou inteligenci AI Act, který přináší jasná pravidla pro vývoj a využívání umělé inteligence. Co to znamená pro firmy i uživatele v EU?

Umělá inteligence se během posledních let stala nedílnou součástí života moderní společnosti. Najdeme ji v chytrých telefonech, ve zdravotnictví, v dopravě, bankovnictví i v každodenní komunikaci. Spolu s tím, jak roste počet jejích aplikací, se však zvyšuje i obava z možných rizik. Hovoří se o diskriminaci, netransparentním rozhodování, bezpečnostních hrozbách i o tom, jak mohou pokročilé systémy zasahovat do soukromí a základních práv. Evropská unie proto přijala vůbec první komplexní právní rámec pro oblast umělé inteligence na světě – AI Act. 

Proč EU zavádí AI Act

Smyslem AI Actu není umělou inteligenci brzdit, ale nastavit pro její vývoj a využívání jasná pravidla, která posílí důvěru občanů a zároveň poskytnou podnikům právní jistotu. Evropská unie chce tímto krokem ochránit uživatele, předejít zneužití technologií a zároveň vytvořit jednotný rámec pro fungování v rámci celého vnitřního trhu. Stejně jako před lety GDPR se i AI Act má stát globálním měřítkem a standardem, který budou následovat další země. 

Nařízení vstoupilo v platnost 1. srpna 2024, ale jeho jednotlivá ustanovení se budou uplatňovat postupně. Například zákaz systémů považovaných za nepřijatelné riziko platí již v roce 2025, zatímco plná pravidla pro obecně účelové modely, jako jsou velké jazykové modely či generativní AI, začali fungovat od srpna 2025. Firmy tedy mají omezený čas, aby se na nové povinnosti připravily. 

Čtyři kategorie AI podle míry rizika

AI Act vychází z principu, že ne všechny systémy umělé inteligence představují stejné riziko. Proto zavádí čtyři základní kategorie:

  1. Zakázané systémy
  2. Systémy s vysokým rizikem
  3. Systémy s omezeným rizikem
  4. Systémy s minimálním rizikem

Na samém vrcholu stojí tzv. zakázané systémy. Sem spadá například social scoring občanů státními orgány, skryté manipulační techniky, které mohou lidem škodit, nebo biometrická identifikace v reálném čase na veřejných prostranstvích bez dostatečného právního rámce. Takové aplikace jsou v Evropské unii zcela zakázány. 

Druhou skupinou jsou systémy s vysokým rizikem. Ty najdeme v kritické infrastruktuře, zdravotnictví, dopravě, vzdělávání nebo při náboru zaměstnanců. U těchto aplikací se vyžaduje přísné plnění celé řady povinností: od zajištění kvality dat přes podrobné dokumentace a testování až po povinný lidský dohled a uchovávání záznamů o fungování systému. Cílem je, aby se zabránilo tomu, že rozhodnutí AI bude nepředvídatelné nebo diskriminační. 

Do třetí kategorie spadají systémy s omezeným rizikem, kde jde zejména o povinnost transparentnosti. Typickým příkladem jsou chatboti – uživatel musí být jasně informován o tom, že komunikuje se strojem. 

A konečně nejnižší úroveň tvoří systémy s minimálním rizikem, kam patří například spamové filtry nebo AI ve videohrách. Tyto aplikace nepodléhají žádným dalším regulatorním požadavkům. 

Od textů po obrázky: zvláštní pravidla pro obecně účelovou AI

Zvláštní kapitolu představují tzv. general-purpose AI, tedy systémy, které lze využít pro široké spektrum účelů – od generování textu a obrázků až po analýzu dat nebo kódování. Tyto modely, mezi něž patří například velké jazykové modely, přinášejí obrovské možnosti, ale i rizika, protože mohou být nasazeny v aplikacích spadajících do všech výše zmíněných kategorií. AI Act proto zavádí pro poskytovatele těchto modelů povinnost zajistit transparentnost, zveřejňovat technickou dokumentaci, řešit otázky autorských práv a provádět hodnocení dopadů. 

Kdo nese odpovědnost a jak vysoké jsou pokuty

AI Act přesně rozlišuje role jednotlivých aktérů. Hlavní odpovědnost nese poskytovatel, tedy subjekt, který systém vyvíjí nebo uvádí na trh. Povinnosti však mají i uživatelé (tzv. deployeři), distributoři nebo dovozci systémů mimo EU. Všichni musejí zajistit, aby systémy odpovídaly svému určenému účelu, aby bylo možné dohledat jejich fungování a aby byly k dispozici dostatečné záznamy pro případné kontroly.

Za porušení pravidel hrozí vysoké sankce. Ty nejpřísnější – až 35 milionů eur nebo 7 % celosvětového obratu – se vztahují na používání zakázaných systémů. Za porušení povinností u systémů s vysokým rizikem může pokuta dosáhnout 15 milionů eur nebo 3 % obratu. I zdánlivě menší prohřešky, jako je nesplnění povinnosti transparentnosti, mohou stát firmy 7,5 milionu eur.

Český kontext: Role NÚKIB a co čeká lokální firmy

V České republice bude hlavním dozorovým orgánem Národní úřad pro kybernetickou a informační bezpečnost (NÚKIB). Ten bude mít na starosti nejen dohled, ale i metodickou podporu a koordinaci s Evropským úřadem pro umělou inteligenci. České podniky se tak musí připravit na nové povinnosti, zejména v bankovnictví, zdravotnictví nebo v IT sektoru, kde se AI řešení vyvíjejí a implementují velmi rychle. 

Pro menší firmy a startupy bude velkou výzvou složitost regulace a nedostatek odborníků. Na druhou stranu právě ty organizace, které se dokáží včas adaptovat, získají konkurenční výhodu. Zodpovědné nakládání s AI, prokazatelné dodržování pravidel a transparentnost vůči zákazníkům se mohou stát silnými obchodními argumenty. 

AI Act: šance i výzvy pro evropské firmy

AI Act vyvolává smíšené reakce. Jeho kritici varují, že přísné požadavky mohou zpomalit inovace a odradit investory od evropského trhu. Naopak zastánci tvrdí, že jedině jasná pravidla umožní rozvoj technologií, kterým bude veřejnost důvěřovat. A důvěra je pro rozšíření AI v celé společnosti klíčová.

Z pohledu kybernetické bezpečnosti představuje AI Act zásadní posun. Donedávna byly systémy umělé inteligence hodnoceny především z hlediska funkčnosti a obchodní hodnoty, nikoli však jako potenciální bezpečnostní hrozba. Regulace nyní vyžaduje, aby vývojáři i uživatelé AI zavedli procesy obdobné těm, které se uplatňují v oblasti informační bezpečnosti – tedy systematické řízení rizik, nezávislé audity, důsledné logování a pravidelné testování odolnosti. To je krok správným směrem, protože incidenty spojené s AI mohou mít nejen etické, ale i velmi konkrétní bezpečnostní dopady, například manipulaci s kritickou infrastrukturou nebo šíření dezinformací.

Zkušenosti z praxe ukazují, že největší slabinou bývá dodavatelský řetězec – firmy sice chrání své vlastní systémy, ale často podceňují rizika plynoucí z integrace AI komponent od externích poskytovatelů. AI Act na tento problém reaguje a vnáší do něj právní rámec: za bezpečnost nese odpovědnost poskytovatel i uživatel, což vytváří tlak na transparentnost a férové smluvní vztahy.

AI Act je revolučním krokem v regulaci technologií. Stejně jako GDPR před lety změnilo přístup k ochraně osobních údajů, i AI Act nastavuje nová pravidla hry pro umělou inteligenci. Evropské firmy nyní stojí před nelehkým úkolem: analyzovat, jakých systémů se regulace týká, nastavit interní procesy a připravit se na dohled ze strany regulátorů. Kdo to zvládne, může nejen předejít vysokým pokutám, ale také získat důvěru zákazníků a významnou konkurenční výhodu v rychle se měnícím světě umělé inteligence.

Potřebujete poradit od expertů na kyberbezpečnost? Domluvte si s námi nezávaznou schůzku a společně najdeme řešení, jak být v souladu s regulací AI Act.

Autor

Další články

Umění války pro bezpečnostní manažery

Radim Trávníček v knize Umění války pro bezpečnostní manažery přenáší principy strategického vedení do světa moderní kybernetické bezpečnosti....

Kybernetická bezpečnost

NIS2 v evropských zemích: Jak si jednotlivé státy stojí s implementací?

Pojďme se podívat na to, jak některé evropské státy implementují NIS2 do svých právních rámců a jaká mají specifika....

Kybernetická bezpečnost

Informační bezpečnost

Jak vysvětlit dětem, co je AI a proč na tom záleží

Mnoho rodičů si pokládá otázku: Kdy a jak začít diskutovat s dětmi o umělé inteligenci? Není to otázka techniky, ale důvěry, zvídavosti a zejména kritického přístupu....

Kybernetická bezpečnost

Digitální hygiena: malé návyky, které chrání vaše data i firmu 

Bezpečnost firmy začíná u lidí. Zjistěte, jak malé digitální návyky pomáhají předcházet kyberútokům a únikům dat....

Kybernetická bezpečnost

10 kroků, jak se připravit na nový zákon o kybernetické bezpečnosti

Připravili 10 kroků, díky nimž zvládnete implementaci nZKB bez zbytečných komplikací a včas splníte všechny povinnosti....

Kybernetická bezpečnost

NIS2 v české praxi: Koho se týká nový zákon o kybernetické bezpečnosti

Zákon o kybernetické bezpečnosti vychází z evropské směrnice NIS2 a jeho cílem je chránit informační a komunikační systémy před kybernetickými hrozbami a zajistit bezpečnost komunikačních sítí....

Kybernetická bezpečnost

Informační bezpečnost

Legislativa

Kybernetická odolnost ve finančním sektoru: Co znamená nařízení DORA pro vaši firmu 

V tomto článku zjistíte, co je to nařízení DORA, koho se týká, co vyžaduje a jak se na něj připravit....

Kybernetická bezpečnost

Informační bezpečnost

Legislativa

TISAX v kostce: Jak zajistit informační bezpečnost v automobilovém průmyslu

V tomto článku se dozvíte, co je TISAX, koho se týká, jak vaše organizace může získat certifikaci a jaké výhody přináší....

Kybernetická bezpečnost

Informační bezpečnost

Legislativa

Ransomware – neplaťte zbytečně výkupné

Ransomware je téma, které v online světě patří mezi největší hrozby. Stačí jedno špatné kliknutí a už jste cílem kyberútočníků. A dalším krokem bude bude vaše rozhodnutí, zda jim zaplatíte výkupné, nebo zda se...

Kybernetická bezpečnost

Tipy pro bezpečnou práci z domova

Práci z domova vnímá část lidí jako benefit a část lidí se ji vyhýbá jako čert kříži. Důvody mohou být různorodé, ale většinou převládá ten, kdy doma skutečně nemají možnost se plně soustředit na...

Kybernetická bezpečnost

10 rad, kterými zvýšíte svou online bezpečnost

Dnes jsme si pro vás připravili pár základních rad a doporučení, kterými můžete výrazně zvýšit svou online bezpečnost....

Kybernetická bezpečnost

Kontaktujte nás