Moderní technologie se stávají součástí našich životů v takové míře, že si to ani neuvědomujeme. Ještě před pár lety bychom si neuměli představit, že jednou budeme moci mít každý svůj dron, polovinu práce za nás vyřeší počítač a do zaměstnání nás doveze samořiditelné auto, takže se cestou budeme moci nasnídat nebo si ještě pospat. Moderní technologie nám pomáhají. Každá mince má však dvě strany. Na bruselské konferenci se sešli přední světoví experti, aby právě tuto odvrácenou stranu prodiskutovali. Jaké hrozby tedy základním právům hrozí?
Zmínění odborníci se na konferenci však nesešli fyzicky, jelikož probíhala ve dnech 12. a 13. března, tudíž na počátku současné pandemie, a tak většina řečníků i návštěvníků zvolila formu videokonferenční účasti – také technologické vymoženosti 21. století. Akci pořádala německá organizace ERA (Europäische Rechtsakademie) a pozvala řečníky z různých oblastí, od IT a sociálních sítí, přes akademiky a právníky zabývající se lidskými právy, až po představitele Evropského soudu pro lidská práva.
Algoritmická předpojatost
Konferenci zahájil Jakub Kotowski, který se zabývá technologickými inovacemi a umělou inteligencí v soukromém sektoru. Uvedl příklad etického dilematu naprogramování samořiditelných aut, které se v krizovém okamžiku budou muset rozhodnout, zda mají srazit dítě, nebo starého člověka. Jinou zajímavostí byl chatovací robot vyvinutý Microsoftem, který byl naprogramován, aby se od ostatních diskutujících uměl učit. Za velmi krátkou dobu se z něj však stal robo-rasista.
Problém umělé inteligence tedy tkví v tom, že může mít (a často má) nezamýšlené následky. K nim dochází, pokud je naprogramován určitý cíl a počítač může libovolně přizpůsobit další proměnné, aby stanoveného cíle dosáhl. Vzniká tak tzv. algoritmická předpojatost (algorithmic bias). V případě softwaru, jehož účelem je usnadnit na základě stanovených kritérií personálnímu oddělení výběr vhodných uchazečů, se tak může jednoduše stát, že bude diskriminovat ženy nebo menšiny. Přednost tak dostanou bílí muži.
Následoval Daniel Schönberger, šéf právníků v Googlu pro Švýcarsko a Rakousko. Ten vysvětlil, že umělá inteligence (artificial intelligence, AI) spočívá ve snaze učinit věci chytrými. Termín tedy neoznačuje žádného humanoidního robota. Kromě AI je důležitý také machine learning (někdy překládaný jako strojové učení), což je oblast, která umožňuje počítačům, aby se učily z určitých dat bez výslovného naprogramování. Machine learning je tak pouze určitou podmnožinou AI. Google využívá umělou inteligenci v celé řadě svých produktů a ve spoustě oblastí (např. zdravotnictví) je její využití velmi přínosné. S mocí, kterou AI přináší, však podle něj musí jít ruku v ruce i patřičná míra odpovědnosti. Proto Google vytvořil interní AI principy, podle kterých je například testováno, zda jeho produkty nemají onu zmíněnou předpojatost.
Oba úvodní řečníci se shodli, že oblast AI by měla být určitým způsobem dále regulována.
Nenávistné projevy na Facebooku
Pokračovala Michela Palladino z Facebooku, která vysvětlovala, jak má Facebook nastavenou politiku nenávistných projevů (hate speech). Ty jsou zakázané, avšak diskuzi (někdy i nevhodnou) Facebook samozřejmě sankcionovat nechce, jelikož samotným účelem využívání platformy je komunikace mezi lidmi. Pokud by však například někdo zveřejnil fotografii, na které drží osoba transparent s nápisem „Keep Syrians out“, Facebook by příspěvek automaticky odstranil. Když ale někdo uveřejní tentýž obrázek, ke kterému však připojí svůj nesouhlasný komentář, Facebook daný příspěvek na platformě ponechá. V rámci dalšího příkladu byl uveden příspěvek „Austria is a fucked up country“, který Facebook neodstraní, ovšem větu „Austrians are lazy people. They should all be beaten.“ již ano.
Facebook pro takové selektování používá machine learning, který zhodnotí obsah a rozřadí jej do jedné ze tří skupin – buď je v pořádku a příspěvek nechá, nebo je nenávistný, tak jej automaticky odstraní. Hraniční případy pak posílá na přezkum ze strany zaměstnanců. Právě tuto třetí skupinu se daří s vylepšováním programů redukovat.
Rozlišování však vůbec není jednoduché, jelikož algoritmy musí umět rozeznat například komentáře ze zimních radovánek typu „My friends are killing it!“ jako neškodné.
V případě odstranění příspěvku se tato informace objeví na telefonu a uživatel může požádat o revizi daného rozhodnutí. Tím se Facebook také soustavně učí, v jakých oblastech jeho algoritmy v hodnocení projevu chybují.
Zajímavá byla rovněž následná diskuze. Tazatel se zajímal o problém šíření nenávistných projevů přes Facebook v Myanmaru v roce 2017, které vedly k rozsáhlému páchání zločinů vůči etnické menšině Rohingů. Představitelka Facebooku uvedla, že od té doby proběhla řada vylepšení, ale že k této konkrétní věci nemá dostatek informací. Rovněž byla položena otázka na rozdílné komunitní standardy Facebooku – zda by fotografii dvou líbajících se mužů například v Belgii ponechal, ale v Afghánistánu stáhnul. Odpověď tuto domněnku potvrdila; jelikož Facebook respektuje právo konkrétních států, danou fotografii by neuveřejnil pouze v zemi, ve které by to bylo protiprávní. Další dotaz se týkal šíření dezinformací a fake news a možnosti zavedení nějakého fact-checkingu. Tato oblast se však již netýká nenávistných projevů, a tak podle řečnice spadá spíše pod svobodu projevu.
Patří budoucnost robo-soudcům?
Následujícím řečníkem byl Tanel Kerikmäe z Talinské technologické univerzity – tedy z Estonska, které je známé svou pokročilou digitalizací prakticky ve všech oblastech fungování státní správy. Estonsko v rámci takzvané e-justice zavedlo centrální informační systém pro složky státu využívající informace z oblasti justice. Zprovoznilo také soudní informační systém, který zahrnuje informace od registrace jednotlivých případů, přes přidělování případů soudcům, až po publikaci rozsudků. Profesor Kerikmäe se věnoval tématu, zda a do jaké míry mohou roboti nahradit rozhodování v tradičních právnických profesích.
V řadě oblastí se AI u právnických profesí používá již dnes, otázkou ovšem je, kam až tento trend dojde. V této souvislosti byl zmíněn výzkum University of Alberta, který vyvinul algoritmus pro úspěšné složení advokátních zkoušek. Zatímco skuteční právníci měli úspěšnost 85 %, úspěšnost AI dosahovala 94 %.
Na některých místech v Číně se například již zavádí internetová soudní řízení, především v oblasti elektronického obchodování. AI také již pomáhá v oblasti vymáhání práva, například v otázkách praní špinavých peněz, identifikace kradených aut nebo dětské pornografie na internetu. Co se týče používání technologie rozlišování obličejů ze strany policie, kupříkladu Britské soudy rozhodly, že samotné používání této technologie není v rozporu s ochranou soukromí.
Na druhou stranu Evropský parlament se vyjádřil kriticky, jelikož nasazení AI by v určitých případech mohlo narušit právo na spravedlivý proces. Podle formálního vyjádření tohoto orgánu musí justiční systém zůstat v rukou lidských prokurátorů a soudců.
Jako soft-law byla v rámci Rady Evropy vytvořena Evropská etická charta o využití AI v soudních systémech, mezi jejíž principy patří dodržování základních práv, nediskriminace, kvalita a bezpečnost, transparentnost a nestrannost, stejně jako potřeba zůstat pod kontrolou lidského uživatele.
Na závěr hovořil Kerikmäe rovněž o nebezpečí algoritmické předpojatosti. AI systémy jsou například využívány k hodnocení rizika orgány činnými v trestním řízení ve velké většině států USA. Výstupy slouží jako doporučení soudcům, zda mají obviněnou osobu propustit na kauci, nebo nikoliv. Systémy však mají tendenci u bělochů doporučovat spíše ponechání na svobodě a u Afroameričanů opak.
Uvedený řečník vidí prostor pro podporu ze strany AI spíše u procesního práva nežli u práva hmotného. AI by se podle něj měla v soudnictví využívat jako nástroj pro předvídatelnost. Měla by do určité míry doplnit rozhodování lidí a případně odhalit či napravit tendenční rozhodování lidských soudců. Sloužit má ale spíše v limitovaných oblastech, ve kterých může ulehčit práci právníkům jako konečným rozhodovatelům, kteří musí být nadáni určitou kombinací lidských dovedností.
Možnost stínového rozhodnutí AI
Pařížský právník Dan Shefet specializující se na AI a lidská práva uvedl, že by podle něj soudci neměli být nahrazeni roboty, avšak argumentoval ve prospěch toho, aby robot mohl paralelně vyjádřit druhý „názor“. Soudci jsou totiž lidé a jako takoví mohou podléhat určitým emocím nebo v určitých případech rozhodovat iracionálně – zkrátka chybovat.
Pro ilustraci uvedl případ z oblasti trestního práva; Sally Clark byla ve Velké Británii odsouzena za vraždu svých dvou synů, a to na základě chybných statistických údajů poukazujících na extrémně nízkou pravděpodobnost jejich úmrtí z jiného důvodu. Obdobný případ se stal v Nizozemí – Lucia de Berk byla zdravotní sestra, při jejíž službě zemřelo několik pacientů. Řečník tedy apeloval, že možnost druhého závěru ze strany AI by mohla snížit četnost justičních omylů.
Argumenty některých technologických gigantů, že nenávistné projevy lze pouze obtížně kontrolovat, považuje za liché. Připustit je by totiž znamenalo, že úspěch ospravedlňuje újmu. To podle něj nelze akceptovat – pokud chce být někdo úspěšný, musí zařídit patřičnou kontrolu kvality od samého počátku.
Štrasburský soud a nenávistné projevy na internetu
Alexander Misic z Evropského soudu pro lidská práva (ESLP) se pak zaměřoval na odpovědnost internetových zprostředkovatelů jako jsou vyhledávače (např. Google) nebo sociální sítě (např. Facebook). Tyto platformy, stejně jako státy, zavádějí politiky k respektování lidských práv. Musí se přitom vypořádat s konfliktem mezi čl. 8 (respektování soukromého a rodinného života) a čl. 10 (svoboda projevu) Evropské úmluvy o lidských právech.
Představitel štrasburského soudu vysvětloval případ Delfi AS proti Estonsku, podle kterého zásah státu proti nenávistným komentářům na internetu nepředstavoval podle ESLP porušení svobody projevu. Následně se věnoval rozsudku, který vzhledem k dlouhému maďarskému názvu označoval jako MTE proti Maďarsku, ve kterém šlo o komentáře urážlivé, avšak nikoliv nenávistné. ESLP tak rozhodl, že následný zásah státu představoval porušení svobody projevu.
Kromě toho stojí za zmínku, že ESLP na svém webu vydal přehledný soupis relevantní judikatury týkající se jak nových technologií, tak nenávistných projevů.
Soft-law Evropské unie a Rady Evropy
Juraj Sajfert z Vrije Universiteit Brussel následně vysvětlil kroky, které v této oblasti činí Evropská unie a Rada Evropy. EU prezentovala závěry vysoké expertní skupiny o AI v dubnu 2019 v podobě etické směrnice o důvěryhodné AI a Rada Evropy vydala v lednu 2019 směrnici k AI a ochraně dat a v září pak zřídila Výbor k umělé inteligenci a lidským právům (CAHAI, souhrn z prvního zasedání zástupkyně ČR Moniky Hanych si lze přečíst v Bulletinu lidských práv z prosince 2019, s. 9).
V rámci diskuze se pak Sajfert vyjadřoval k využití technologie na rozpoznávání obličejů. Tu je podle něj možné rozdělit do tří kategorií. První slouží k pouhému ověření osoby – například letištnímu personálu pomůže identifikovat, zda se skutečně jedná o osobu na pasové fotografii. To je v pořádku. U druhé kategorie se jedná o identifikaci osoby na základě údajů z CCTV kamer, které například mohou napomoci dopadnout pachatele. To je již riskantnější, ale stále lze takové užití odůvodnit. U třetího typu se však jedná o permanentní sledování společnosti na základě rozlišování obličejů, fungující stejně jako otisky prstů s celospolečenskou databází. Tento způsob užití by měl být podle uvedeného akademika zakázán.
Profesorka Nathalie Smuha se následně věnovala strategii Evropské unie, jejíž aktivity v této oblasti zatím měly spíše podobu soft-law. Je zřejmé, že EU bude v blízké budoucnosti stát před úkolem přijít s právní úpravou rozvoje AI rovněž ve formě hard-law.
Co nás čeká?
Technologické vymoženosti, které známe jen ze sci-fi, jsou za dveřmi. Buď se plánují, nebo v Silicon Valley již fungují, jen o tom ještě nevíme. Právo takový vývoj samozřejmě nemůže předjímat, ale mělo by na něj umět včas reagovat. Řada řečníků uváděla, že jasná pravidla by jim spíše ulehčila práci. Vzhledem k algoritmické předpojatosti a jiným hrozbám je potřeba právní regulace evidentní. Je tedy možné, že tak jako jsme se v oblasti ochrany osobních údajů nedávno dočkali nařízení GDPR, dočkáme se v budoucnu podobného vyjasnění pravidel v oblasti AI.
Cestu k němu však není namístě uspěchat – diskuze a definování soft-law principů jsou slibnými prvními krůčky na cestě k umělé inteligenci, která nám bude sloužit, ale která nás nepřeroste.
Fotografie: Artificial Intelligence & AI & Machine Learning, author: Mike MacKenzie, source: Flickr, CC BY 2.0, edits: photo horizontally inverted
Žádné komentáře:
Okomentovat