Jan Kameníček: AI je spíše pokročilý nástroj než bytost s vlastní inteligencí (II. část)

Pohled generálního ředitele HPE na hrozby ze strany AI a nutnost její budoucí regulace.

Nemáte obavy z toho, že výsledky práce umělé inteligence jsou značně závislé na tom, kdo ji programuje a jakými daty ji živí?

Je to velké riziko. Na tom, jak bude umělá inteligence pracovat, mají podíl tři zásadní faktory: kdo vytváří algoritmus, kdo poskytuje data a kdo dává zadání. Algoritmy vytváří programátoři s konkrétním záměrem, ale umělá inteligence se učí na základě dat, která dostane. Pokud jsou tato data zkreslená nebo úmyslně manipulativní, výsledky mohou být nesprávné. Dalším rizikem je to, že se umělá inteligence může „učit“ z internetu a narazit na to, že většina dostupných informací bude vytvořena předešlou umělou inteligencí. To může vést k zacyklení, nesprávnému učení a později špatnému vyhodnocování.

Jaké mechanismy tedy existují k zajištění toho, že umělá inteligence nebude produkovat zkreslené nebo nesprávné výsledky?

Jsou zde týmy lidí, které kontrolují a opravují práci umělé inteligence. Jde například o programátory, kteří pracují na opravách jazykových modelů, jako je GPT. Kromě toho veřejnost prostřednictvím interakcí, podobně jako například na Wikipedii, také poskytuje zpětnou vazbu. Přesto musíme být opatrní, protože umělá inteligence se může učit z nesprávných nebo manipulovaných dat. Je důležité mít mechanismy pro korekci a regulaci, abychom předešli šíření nesprávných informací a zajistili, že výsledky budou co nejpřesnější a také přínosné.

K tomu se nabízí otázka: Jak velkou roli bude hrát AI při ovlivňování zásadních společenských událostí, jako jsou například volby?

Při nedostatečné regulaci by mohla mít zásadní dopad. Například se obávám, že při příštích prezidentských volbách v USA by mohla být umělá inteligence využívána mnohem intenzivněji než v minulosti. Dnešní umělá inteligence umožňuje tvorbu fiktivních nebo jen z části pravdivých zpráv, videí a obrázků, které mohou cíleně manipulovat s nejkřehčími částmi populace, tedy s těmi, kteří mají omezený přístup k informacím nebo nedostatečně rozvinutý kritický úsudek. Před takovou manipulací se musíme mít na pozoru, protože by mohla mít významný dopad na výsledky voleb.

Jak ale těmto pokusům o masivní manipulaci zabránit? Je cestou regulace umělé inteligence?

Je to jediná cesta. Všichni často kritizujeme Evropskou unii za to, že reguluje prakticky vše, přičemž občas může být docela úsměvné, co vše se reguluje, jako například velikost okurek. Ale někdy je regulace naprosto nezbytná. Jako pozitivní příklad může sloužit rozhodnutí o zavedení univerzálního USB-C konektoru pro iPhone, které eliminuje potřebu výroby nadbytečných komponentů a šetří přírodní zdroje i peníze lidí.

Právě Evropská unie nyní připravuje řadu dokumentů, které stanoví pravidla pro provozování umělé inteligence, a zavádí postihy pro ty, kteří pravidla nedodrží. Tato pravidla striktně zakazují některé oblasti použití, jako je například tzv. social scoring, rozpoznávání biometrických parametrů, a samozřejmě používání tzv. „dark paterns“, neboli manipulativních algoritmů. Zároveň určuje omezující pravidla pro použití AI v oblastech s vysokým rizikem, mezi které se počítá řízení dopravy, použití AI v zabezpečovací technice, při řízení lidských zdrojů , nebo při kontrole na hraničních přechodech.


Sledujte nás

Stojí za přečtení

banner