O čem si budeme v tomto článku budeme povídat? Pro zvídavé je zde definice AI systému: “Strojový systém navržený tak, aby fungoval s různou úrovní autonomie, který může po nasazení vykazovat adaptivitu a který pro explicitní nebo implicitní cíle odvozuje ze vstupů, které obdrží, jak generovat výstupy, jako jsou předpovědi, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzické nebo virtuální prostředí.”
AI Compliance - Vyvíjíte nebo užíváte umělou inteligenci?
Evropská unie přijímá první celosvětová pravidla pro umělou inteligenci (AI Act). AI Act definuje rámec, kterým se musí řídit vývojáři, poskytovatelé, distributoři, dovozci, ale i někteří uživatelé (zejména Vy podnikatelé, využívající AI systém ke svému podnikání).
AI Act jasně říká "ne, děkuji" systémům, které by Vás mohly zařadit na sociálně nežádoucí seznam, manipulovat, neoprávněně sledovat. Stanoví pravidla pro systémy s vysokým rizikem, včetně povinnosti transparentnosti.
Definice AI systému
Akt AI rozděluje AI systémy do kategorií podle úrovně rizika
Problematičnost zařazení do kategorií
„Kdyby bylo zařazování AI do kategorií rizika soutěží, byl by to olympijský sport.“
Správné zařazení jednotlivých systémů do kategorie rizikovosti, bude v praxi klíčové ale také mnohdy problematické. Rozhodnutí, do které škatulky Váš AI výtvor zařadíte, je na Vaší odpovědnosti, jakožto poskytovatele. Za nesoulad systému AI s některým z ustanovení hrozí zásadně pokuta až do výše 15 000 000 EUR, u společnosti až do výše 3 % z hodnoty jejího celkového celosvětového ročního obratu za předchozí účetní období.
Praktické je, že Komise bude do 18 měsíců od platnosti aktu vydávat pokyny s příklady, které činnosti jsou považovány za vysoce rizikové, což by mělo usnadnit výklad aktu.
Povinnosti vývojářů s vysokým rizikem
Vývojáři AI systémů s vysokým rizikem musí například zavést systém řízení rizik (= nepřetržitý opakující se proces plánovaný a probíhající po celou dobu životního cyklu vysoce rizikového systému UI, který vyžaduje pravidelné systematické přezkoumávání a aktualizaci), zajistit správu dat, včetně evaluace modelů, vypracovat technickou dokumentaci (před uvedením na trh a aktualizovat ji), navrhnout systémy pro zaznamenávání událostí (tzv. logs), poskytnout instrukce pro použití, umožnit lidský dohled, a zajistit přiměřené úrovně přesnosti, robustnosti a kybernetické bezpečnosti. Vysoce rizikové systémy AI by měly být opatřeny označením CE, aby se mohly volně pohybovat na vnitřním trhu.
Co je to evaluace modelů? Jde o testování modelů s ohledem na jejich tendenci a schopnost manipulovat, podvádět.
Jak by to mělo u AI systémů s vysokým rizikem vypadat? Celý proces by měl probíhat v následujících krocích:
Registrační povinnost čl. 51
- Na evropské úrovni - povinnost evropské registrace se týká systémů uvedených v příloze č. III., s výjimkou bodu 2, který se registruje na vnitrostátní úrovni, a to i pokud poskytovatel dospěl k závěru, že jeho systém není vysoce rizikový. Do této evropské databáze se také zaregistrují nasazovatelé, kteří jsou orgány veřejné moci, agentury nebo za ně jednají, a to zásadně před zahájením používání systémů. Evidence systémů sloužících k vymáhání práv, migrace, azylu, řízení ochrany hranic, bude neveřejná.
- Na vnitrostátní úrovni - vysoce rizikové systémy a jejich bezpečnostní prvky v oblasti kritické infrastruktury (digitální infrastruktura, silniční doprava, dodávky vody, plynu, tepla a elektřiny)/bod 2 přílohy č. III/.
Povinnosti vývojářů umělé inteligence pro všeobecné účely (GPAI)
Modelem AI pro všeobecné účely je “model AI, včetně modelu vyškoleného na velkém množství dat s využitím autosupervize v měřítku, který vykazuje značnou obecnost a je schopen kvalifikovaně vykonávat širokou škálu odlišných úkolů bez ohledu na způsob uvedení modelu na trh a který lze integrovat do různých navazujících systémů nebo aplikací.” To se netýká modelů umělé inteligence, které se používají před uvedením na trh pro výzkumné, vývojové a prototypové činnosti.
Vývojáři modelů AI pro všeobecné účely musí poskytnout technickou dokumentaci, instrukce pro použití, dodržovat Směrnici o autorských právech a publikovat souhrn o obsahu použitém pro trénink.
Fyzické osoby v přímé interakci s AI musí být informováni, že komunikují s AI, pokud to není zřejmé s přihlédnutím k okolnostem a kontextu. Výstupy z AI (obrázky, videa, zvuky) musí být strojově čitelným formátem označeny; uvedené se nevztahuje na asistenční funkci pro standardní editaci. Pokud je obsah AI součástí zjevně uměleckého, tvůrčího, satirického, fiktivního díla nebo pořadu, uživatelé, kteří nejednají v rámci osobní neprofesionální činnosti, musí vhodným způsobem zveřejnit, že jde o takové AI dílo.
Pokud bude tento GPAI model vyhodnocen jako systémové riziko, což očekáváme u takových systémů jako ChatGPT a Gemini, musí také provádět evaluace modelů, sledovat a hlásit vážné incidenty a zajistit kybernetickou ochranu. Bude zveřejněn seznam modelů GPAI se systémovým rizikem.
Kdy mluvíme o systémovém riziku? Pokud má systém vysokou schopnost dopadu nebo o tom rozhodla Komise. Při hodnotě FLOPs větší než 10^25 se systémové riziko presumuje a poskytovatel prokazuje opak. Tyto hodnoty a ukazatele se budou v praxi měnit aktem Komise.
Integrujete umělou inteligenci do svého systému nebo výrobku?
Pokud vyvíjíte svůj vlastní systém, do kterého jste integrovali AI systém, pak budete dle aktu považováni za „navazujícího poskytovatele, downstream provider“ a budou se na Vás také vztahovat některé povinnosti poskytovatelů, a to v závislosti na rizikovosti Vašeho systému.
Pokud integrujete systém GPAI do svého systému a ten se nekvalifikuje jako vysoce rizikový, jakožto navazující poskytovatel musíte stále dodržovat obecné požadavky na transparentnost, bezpečnost a ochranu dat, ale nebudete muset splňovat specifické požadavky nařízení určené pro vysoce rizikové systémy.
Pokud však integrací změníte určený účel systému a tím i kvalifikaci na vysoce rizikový systém, budete považováni za poskytovatele vysoce rizikového systému se všemi povinnostmi.
Za (nového) poskytovatele jste považováni také v případě, pokud umístíte na vysoce rizikový systém své jméno nebo ochrannou známku nebo provedete podstatnou úpravu vysoce rizikového systému. Dosavadní poskytovatel by s Vámi měl spolupracovat a zpřístupnit informace za účelem dosažení posouzení shody. Původní poskytovatel však může výslovně smluvně vyloučit změnu jeho systému na vysoce rizikový systém.
Výrobce výrobku s AI bezpečnostním prvkem se také považuje za poskytovatele vysoce rizikového systému, pokud je AI systém uváděn na trh spolu s výrobkem, nebo do provozu pod jménem nebo ochrannou známkou výrobce výrobku.
Přinejmenším informace o transparentnosti
Jakožto navazující poskytovatel byste měl mít k dispozici alespoň informace o transparentnosti GPAI: informace o vlastnostech a omezeních původního GPAI (výjimka u open sorce za níže uvedených podmínek), dle přílohy č. IXb. – obecný popis modelu, včetně architektury a počtu parametrů, způsobu a formát vstupů a výstupů, a popis prvků modelu a procesu jeho vývoje, včetně technických prostředků (např. návodů k použití, infrastruktury, nástrojů) potřebných pro začlenění modelu AI pro obecné účely do systémů AI, modality (např. text, obraz atd.) a formátu vstupů a výstupů a jejich maximální velikosti (např. délka kontextového okna atd.), informací o údajích použitých pro trénování, testování a validaci.
Jaké jsou výjimky pro open source v AI Actu?
Povinnosti stanovené v tomto nařízení se nevztahují na systémy AI uvolněné na základě svobodných licencí a licencí s otevřeným zdrojovým kódem (free and open source licence), pokud nejsou uváděny na trh nebo do provozu jako vysoce rizikové systémy AI nebo systém AI, na který se vztahují hlavy II (zakázané systémy) a hlava IV (povinnosti transparentnosti).
Toto pravidlo podporuje otevřený vývoj a inovace v oblasti umělé inteligence tím, že umožňuje vývojářům a organizacím sdílet AI systémy pod otevřenými licencemi bez nutnosti plnit regulativní požadavky specifikované pro vysoce rizikové systémy.
I v případě aplikace Aktu AI na open source jsou dále stanoveny určité výjimky, například z povinnosti ustanovit zástupce. Pokud open source nepředstavuje systémové riziko a zveřejnil relevantní informace umožňující přístup k modelu, jeho používání, modifikaci a šíření, parametry, včetně vah, informace o architektuře modelu a o používání modelu, nemusí zástupce ustanovovat.
Logicky není ani dána povinnost uzavřít písemnou dohodu mezi poskytovatelem vysoce rizikového systému a třetí stranou s integrovaným open source AI.
Zde musím však podotknout, že ani zařazení systému pod open source nemusí být zcela bezproblémové. Open source neznamená, že licence k užití nemůže být poskytována úplatně. Free and open source (tzv. FOSS) znamená svobodný software s otevřeným zdrojovým kódem. Svoboda spočívá v možnosti uživatele užívat software za jakýmkoliv účelem, měnit ho, šířit ho i když úplatně, což mu umožní právě přístup ke zdrojovému kódu. Definice "svobodného" a "otevřeného" softwaru, komerční využití, a role licencí vyvolávají v praxi pravidelné diskuse.
Na tomto místě musím také připomenout, že ChatGPT rozhodně není open source. Společnost OpenAI pouze ve svých počátcích aspirovala na open source, postupně ale svoji práci měnila, což ji dnes také vytýká jeden ze spoluzakladatelů Elon Musk.
Do kdy se připravit?
S termíny se seznamte v časové ose:
Právo AI je naše specializace. Sledujeme pro Vás vývoj Aktu AI, navazujícího kodexu chování, praktických pokynů, vzorové dokumentace a aktů Komise. Potřebujete-li poradit s nastavením interních pravidel pro používání AI aktu, jsme tady pro Vás.
S čím Vám například můžeme pomoci?
- Nastavení interních pravidel pro používání AI systému
- Směrnice o zaškolení zaměstnanců ohledně AI (splnění povinnosti gramotnosti dle čl. 4g AI aktu)
- Sjednání licenčních smluv
- Nastavení VOP podmínek pro užívání Vašeho AI díla
- Zaregistrování v databázi EU
- Vyhodnocení, zda Vaše činnost spadá pod Akt AI
- Správné nastavení procesů s ohledem na autorská práva
- Jsme také certifikované osoby na IP Scan, můžeme Vám poradit ohledně ochrany Vašich autorských práv při používání nebo vývoji AI nástrojů.