Evropské regulační orgány jsou na křižovatce ohledně toho, jak bude umělá inteligence regulována – a nakonec využívána komerčně i nekomerčně – v regionu. Největší spotřebitelská skupina v EU, Evropská spotřebitelská organizace (BEUC), dnes přistoupila k vlastnímu stanovisku: Přestaňte se natahovat a „zahajte naléhavé vyšetřování rizik generativní umělé inteligence“, uvedl.
„Generativní umělá inteligence, jako je ChatGPT, otevřela spotřebitelům všechny druhy možností, ale existují vážné obavy, jak by tyto systémy mohly lidi klamat, manipulovat a ubližovat jim. Mohou být také použity k šíření dezinformací, udržování existujících předsudků, které zesilují diskriminaci, nebo mohou být použity k podvodům,“ uvedla Ursula Pachl, zástupkyně generálního ředitele BEUC, v prohlášení. „Vyzýváme úřady pro bezpečnost, data a ochranu spotřebitelů, aby zahájily vyšetřování již nyní a nečekaly nečinně na všechny druhy poškození spotřebitelů, než začnou jednat. Tyto zákony se vztahují na všechny produkty a služby, ať už využívají umělou inteligenci nebo ne, a úřady je musí prosazovat.“
BEUC, která zastupuje spotřebitelské organizace ve 13 zemích EU, vydala výzvu, aby se shodovala se zprávou jednoho ze svých členů, Forbrukerrådet v Norsku.
Tato norská zpráva je ve svém postoji jednoznačná: AI poškozuje spotřebitele (název zprávy říká vše: „Ghost in the Machine: Řešení poškozování spotřebitele generativní AI“) a představuje řadu problematických problémů.
Zatímco někteří technologové zvonili na poplach kolem umělé inteligence jako nástroje lidského vyhynutí, debata v Evropě se více zaměřila na dopady umělé inteligence v oblastech, jako je spravedlivý přístup ke službám, dezinformace a konkurence.
Zdůrazňuje například, jak „někteří vývojáři umělé inteligence včetně společností Big Tech“ uzavřeli systémy před vnější kontrolou, takže je obtížné zjistit, jak jsou shromažďována data nebo jak fungují algoritmy; skutečnost, že některé systémy produkují nesprávné informace stejně bezstarostně jako správné výsledky, přičemž uživatelé často nejsou o nic moudřejší, než by mohli být; umělá inteligence, která je vytvořena tak, aby klamala nebo manipulovala uživatele; problém zkreslení založený na informacích, které jsou vloženy do konkrétního modelu umělé inteligence; a bezpečnost, konkrétně jak by umělá inteligence mohla být vyzbrojena k podvádění lidí nebo narušení systémů.
Ačkoli vydání ChatGPT od OpenAI definitivně umístilo AI a potenciál jejího dosahu do povědomí veřejnosti, zaměření EU na dopad AI není nic nového. O otázkách „rizika“ se začalo diskutovat již v roce 2020, ačkoli tyto počáteční snahy byly použity jako základ pro zvýšení „důvěry“ v technologii.
Do roku 2021 se konkrétněji hovořilo o „vysoce rizikových“ aplikacích umělé inteligence a asi 300 organizací se spojilo, aby se zasadily o úplný zákaz některých forem umělé inteligence.
Pocity se postupem času staly ostře kritičtějšími, protože EU pracuje prostřednictvím svých celoregionálních zákonů. Minulý týden mluvila šéfka EU pro hospodářskou soutěž Margrethe Vestagerová konkrétně o tom, jak umělá inteligence představuje riziko zkreslení při aplikaci v kritických oblastech, jako jsou finanční služby, jako jsou hypotéky a další žádosti o půjčky.
Její komentáře přišly těsně poté, co EU schválila svůj oficiální zákon o umělé inteligenci, který prozatímně rozděluje aplikace umělé inteligence do kategorií, jako je nepřijatelné, vysoké a omezené riziko, přičemž pokrývá širokou škálu parametrů, aby bylo možné určit, do které kategorie spadají.
Až bude zákon o umělé inteligenci implementován, bude prvním pokusem o kodifikaci určitého druhu porozumění a právního vymáhání ohledně toho, jak se umělá inteligence používá komerčně a nekomerčně.
Dalším krokem v tomto procesu je, aby se EU zapojila do jednání s jednotlivými zeměmi v EU, aby zjistila, jakou konečnou podobu bude mít zákon – konkrétně aby určila, co (a kdo) by do jeho kategorií zapadalo a co ne. Otázkou bude, jak ochotně se různé země dohodnou. EU chce tento proces dokončit do konce letošního roku, uvedla.
“Je klíčové, aby EU učinila tento zákon co nejtěsnější, aby chránila spotřebitele,” uvedla Pachl ve svém prohlášení. „Všechny systémy umělé inteligence, včetně generativní umělé inteligence, potřebují veřejnou kontrolu a veřejné orgány nad nimi musí znovu prosadit kontrolu. Zákonodárci musí vyžadovat, aby výstup z jakéhokoli generativního systému umělé inteligence byl pro spotřebitele bezpečný, spravedlivý a transparentní.“
BEUC je známá tím, že se v kritických okamžicích zapojuje a vydává vlivná volání, která odrážejí směr, kterým se regulační orgány nakonec ubírají. Byl to například první hlas proti Googlu v dlouhodobých antimonopolních vyšetřováních proti vyhledávacímu a mobilnímu gigantu, odbíjející roky předtím, než byly proti společnosti podniknuty kroky. Tento příklad však podtrhuje něco jiného: Debata o AI a jejích dopadech a roli, kterou v tom může hrát regulace, bude pravděpodobně dlouhá.