Již mnoho bylo řečeno o nejrůznějších případech využití umělé inteligence (AI) a jejích výhodách: jak může zlepšit zdravotní péči, pomoci s řízením vozidla, zvýšit efektivitu v zemědělství a mnoho dalšího. Nicméně její nesprávné použití může způsobit, ač neúmyslně, nehody.
A právě v tento moment je potřeba zvážit právní odpovědnost. Právní rámec může zajistit obětem náhradu škody, kterou utrpěli, a motivuje odpovědnou stranu, aby se v prvé řadě snažila vyhnout samotnému způsobení škody.
Co na právní odpovědnost za umělou inteligenci říká Komise a Parlament?
To je jeden z problémů, kterým se evropští zákonodárci v současné době zabývají. Komise vydala zprávu na toto téma v únoru. A Evropský parlament také pracuje na svém stanovisku ve výborech JURI a IMCO.
Před několika týdny jsem podal své pozměňovací návrhy ke zprávě výboru IMCO. Momentálně vyjednáváme možnosti kompromisů mezi jednotlivými politickými skupinami. V následujících odstavcích shrnuji nejdůležitější aspekty, na které je třeba brát zřetel:
Jak by měla budoucí legislativa vypadat?
Pro spotřebitele je skutečně důležité, aby jim byla způsobená škoda nahrazena. Evropské společnosti zase potřebují jasná a jednotná pravidla, která usnadní rozšíření jejich podnikání v celé Unii. Nicméně je obtížné vytvořit jednotná pravidla pro všechny aplikace umělé inteligence z důvodu jejich rozšíření napříč sektory a různosti použití: problémy při používání automatizovaných vozidel nemusí být nutně stejné jako problémy u systémů moderování obsahu nebo u chatbotů. Proto podporuji přístup založený na míře rizika, který by měl být odstupňován více než na pouhé rozdělování aplikací na vysoké riziko (automatizované řízení, drony) a nízké riziko (všechno ostatní). Tento systém by měl odrážet závažnost újmy, která může nastat, včetně jakéhokoli dopadu na občanská práva.
Vzhledem ke složitosti systémů umělé inteligence—a jejich schopnosti plnit úkoly, aniž by každý krok byl dopředu určen člověkem—je stále obtížnější vysledovat původ škody zpět k lidské chybě. Transparentnost funkčnosti, procesů a hlavních kritérií je proto nezbytná pro lepší rozdělení odpovědnosti. V některých případech bychom také měli zvážit přenesení důkazního břemene.
Odpovědnost nefunguje jako kouzelný proutek, jehož mávnutí dělá zázraky, nicméně jakmile ke způsobení škody dojde, může vzniklou situaci napravit. Musíme podporovat investice do bezpečnostních opatření ex ante, abychom eliminovali samotný vznik škody. Pro vytvoření nezávislého auditu systémů umělé inteligence je nutné, aby byl zdrojový kód veřejně dostupný. To by vytvořilo lepší prostředí pro vývojáře a přilákalo by více recenzentů.
Zprávy Komise a expertní skupiny stále více zvažují odpovědnost za software a společnou odpovědnost i pro vývojáře software. Zatímco například software zabudovaný do produktu nelze vždy považovat za samostatný produkt, protože software a produkt mohou fungovat pouze společně, musíme být zároveň velmi opatrní, abychom neohrozili inovace a projekty svobodného a Open Source software, které jsou založeny na spolupráci.