V posledních týdnech se vláda Spojeného království snaží vypěstovat si obraz sebe sama jako mezinárodního hybatele a hybatele v rodící se oblasti bezpečnosti umělé inteligence – minulý měsíc upustila od okázalého oznámení o nadcházejícím summitu na toto téma spolu se závazkem utrácet 100 milionů liber na základní modelovou pracovní skupinu, která bude provádět „špičkový“ výzkum bezpečnosti AI, jak říká.

Přesto se tatáž vláda, vedená britským premiérem a superfanouškem ze Silicon Valley Rishi Sunakem, vyhnula potřebě schválit novou domácí legislativu regulující aplikace umělé inteligence – což je její vlastní politický dokument k tématu značek „pro-inovace“.

Je také uprostřed schvalování deregulační reformy národního rámce pro ochranu údajů, která ohrožuje bezpečnost AI.

Posledně jmenovaný je jedním z několika závěrů nezávislého výzkumně zaměřeného institutu Ada Lovelace Institute, který je součástí charitativního trustu Nuffield Foundation, v nové zprávě zkoumající britský přístup k regulaci umělé inteligence, který je diplomaticky znějící, ale občas dost trapný. čtení pro ministry.

Zpráva obsahuje plných 18 doporučení pro vyrovnání vládní politiky/důvěryhodnosti v této oblasti – tedy pokud chce být Spojené království v tomto tématu bráno vážně.

Institut se zasazuje o „nákladnou“ definici bezpečnosti umělé inteligence — „odrážející širokou škálu škod, které vznikají, když se systémy umělé inteligence stávají schopnějšími a pevnějšími ve společnosti“. Zpráva se tedy zabývá tím, jak regulovat škody, které „systémy AI dnes mohou způsobit“. Říkejte jim skutečné škody AI. (Ne s teoretickými možnými budoucími riziky inspirovanými sci-fi, která byla v poslední době nafouknuta některými významnými osobnostmi v technologickém průmyslu, zdánlivě ve snaze upoutat pozornost tvůrců politik.)

Prozatím je fér říci, že přístup Sunakovy vlády k regulaci (reálné) bezpečnosti umělé inteligence byl rozporuplný – plný okázalých, průmyslově vedených PR prohlašujících, že chce prosazovat bezpečnost, ale osvětluje politické návrhy na stanovení věcných pravidel, která by se měla chránit před Smorgasbord rizik a škod, o kterých víme, že mohou plynout z špatně posouzených aplikací automatizace.

Zde je Ada Lovelace Institute, který shodil primární bombu pravdy:

Vláda Spojeného království stanovila svou ambici učinit ze Spojeného království „velmoc v oblasti umělé inteligence“, přičemž využije vývoj a šíření technologií umělé inteligence ve prospěch britské společnosti a ekonomiky a na podzim 2023 uspořádá celosvětový summit. domácí regulace, která poskytne platformu pro budoucí britskou ekonomiku AI.

Seznam doporučení ve zprávě pokračuje, aby bylo jasné, že institut vidí velký prostor pro zlepšení současného přístupu Spojeného království k AI.

Začátkem tohoto roku vláda zveřejnila svůj preferovaný přístup k domácí regulaci umělé inteligence – uvedla, že v této fázi nevidí potřebu nové legislativy nebo orgánů dohledu. Namísto toho bílá kniha nabídla soubor flexibilních principů, které vláda navrhla, aby stávající, sektorově specifické (a/nebo průřezové) regulační orgány „interpretovaly a uplatňovaly AI v rámci svých pravomocí“. Jen bez jakýchkoli nových zákonných pravomocí nebo zvláštního financování také pro dohled nad novým využitím AI.

Pět zásad stanovených v bílé knize je bezpečnost, zabezpečení a robustnost; náležitá transparentnost a vysvětlitelnost; spravedlnost; odpovědnost a správa; a soutěživost a náprava. To vše zní na papíře dobře – ale samotný papír to zjevně nezkrátí, pokud jde o regulaci bezpečnosti umělé inteligence.

Plán Spojeného království umožnit stávajícím regulačním orgánům zjistit, co dělat s umělou inteligencí, pouze pomocí několika obecných zásad, na které se zaměřit, a žádných nových zdrojů není v rozporu s plánem EU, kde jsou zákonodárci zaneprázdněni prosazováním dohody o rámci založeném na rizicích. Výkonný představitel bloku navrhl v roce 2021.

Britský přístup k rozpočtu, který spočívá v uvalení stávajících přepracovaných regulátorů na novou odpovědnost za sledování vývoje umělé inteligence na jejich patchi bez jakýchkoli pravomocí prosazovat výsledky na špatných aktérech, nevypadá na bezpečnost umělé inteligence, mírně řečeno, příliš důvěryhodně.

Ani to nevypadá jako koherentní strategie, pokud se snažíte být pro-inovační – protože to bude vyžadovat, aby vývojáři umělé inteligence zvážili celou mozaiku sektorově specifické a průřezové legislativy, vypracované dlouho před nejnovějším boomem umělé inteligence. Vývojáři se také mohou ocitnout pod dohledem řady různých regulačních orgánů (jakkoli je jejich pozornost slabá, vzhledem k nedostatku zdrojů a legální palebné síly k prosazení výše uvedených principů). Ve skutečnosti to tedy vypadá jako recept na nejistotu ohledně toho, jaká stávající pravidla mohou platit pro aplikace AI. (A s největší pravděpodobností spleť regulačních výkladů v závislosti na odvětví, případu použití a zúčastněných orgánech dohledu atd. Ergo, zmatek a náklady, nikoli jasnost.)

I když stávající regulátoři Spojeného království rychle vypracují pokyny, jak budou přistupovat k AI – jak někteří již pracují nebo na tom pracují – bude zde stále spousta mezer, jak také zdůrazňuje zpráva Ada Lovelace Institute – protože mezery v pokrytí jsou rysem stávající regulační prostředí Spojeného království. Takže návrh na další rozšíření tohoto přístupu znamená, že regulační nekonzistence se zapéká a dokonce zesiluje, protože používání AI měří/exploduje ve všech sektorech.

Tady je zase institut:

Velké části britského hospodářství jsou v současnosti neregulované nebo jen částečně regulované. Není jasné, kdo by byl odpovědný za implementaci principů umělé inteligence v těchto kontextech, které zahrnují: citlivé praktiky, jako je nábor a zaměstnávání, které nejsou komplexně sledovány regulačními orgány, a to ani v rámci regulovaných odvětví; služby veřejného sektoru, jako je vzdělávání a policejní práce, které jsou monitorovány a vynucovány nerovnoměrnou sítí regulačních orgánů; činnosti vykonávané ministerstvy ústřední vlády, které často nejsou přímo regulovány, jako je správa dávek nebo odhalování daňových podvodů; neregulované části soukromého sektoru, jako je maloobchod.

„AI se nasazuje a používá ve všech odvětvích, ale rozsáhlá právní a regulační síť Spojeného království pro umělou inteligenci má v současnosti značné mezery. Jsou zapotřebí jasnější práva a nové instituce, aby se zajistilo, že se záruky rozšíří napříč ekonomikou,“ navrhuje také.

Dalším rostoucím rozporem pro vládní proklamovanou pozici „vedoucího v oblasti AI“ je to, že její snaha stát se globálním bezpečnostním centrem umělé inteligence je přímo podkopávána snahami ve vlaku snížit domácí ochranu osobních údajů – například snížením ochrany, když podléhají automatizovaným rozhodnutím s významným a/nebo právním dopadem – prostřednictvím deregulačního zákona o ochraně dat a digitálních informacích (č. 2).

Zatímco vláda se dosud vyhýbala nejotřesnějším návrhům Brexiteerů na rozbití pravidel pro ochranu údajů odvozených z EU – jako je prosté vypuštění celého článku 22 (který se zabývá ochranou pro automatizovaná rozhodnutí) z obecného nařízení o ochraně osobních údajů Spojeného království — nicméně pokračuje v plánu na snížení úrovně ochrany, které občané požívají podle současných právních předpisů na ochranu údajů různými způsoby, a to navzdory své nové ambici učinit ze Spojeného království globální bezpečnostní centrum AI.

„GDPR Spojeného království – právní rámec pro ochranu údajů, který je v současné době platný ve Spojeném království – poskytuje ochranu, která je zásadní pro ochranu jednotlivců a komunit před potenciálním poškozením AI. Návrh zákona o ochraně dat a digitálních informací (č. 2), který byl ve své současné podobě předložen v březnu 2023, tyto ochrany významně upravuje,“ varuje Ústav a poukazuje například na návrh zákona, který odstraňuje zákaz mnoha typů automatizovaných rozhodnutí — a místo toho požadavek, aby správci údajů měli „zavedená ochranná opatření, jako jsou opatření umožňující jednotlivci napadnout rozhodnutí“ – což je podle ní v praxi nižší úroveň ochrany.

„Vzhledem k tomu, že se vládou navrhovaný rámec spoléhá na stávající legislativu a regulační orgány, je ještě důležitější, aby základní regulace, jako je ochrana dat, AI náležitě řídila,“ pokračuje. “Právní poradenství na objednávku Ada Lovelace Institute.” . . naznačuje, že stávající záruky automatizovaného zpracování nemusí v praxi poskytovat dostatečnou ochranu lidem, kteří interagují s každodenními službami, jako je žádost o půjčku.“

„V souhrnu představují změny návrhu zákona riziko dalšího podkopání vládních regulačních návrhů pro AI,“ dodává zpráva.

Prvním doporučením institutu je proto, aby vláda přehodnotila prvky reformního zákona o ochraně údajů, které „pravděpodobně podkopou bezpečný vývoj, nasazení a používání AI, jako jsou změny rámce odpovědnosti“. Doporučuje také vládě, aby rozšířila svůj přezkum, aby se zabývala stávajícími právy a ochranou v právu Spojeného království – s cílem zaplnit jakékoli další legislativní mezery a v případě potřeby zavést nová práva a ochranu pro lidi postižené rozhodnutími na základě AI.

Mezi další doporučení ve zprávě patří zavedení zákonné povinnosti pro regulační orgány zohledňovat výše uvedené zásady, včetně „přísných povinností transparentnosti a odpovědnosti“ a poskytnout jim více finančních prostředků/zdrojů na řešení škod souvisejících s umělou inteligencí; zkoumání zavedení společného souboru pravomocí pro regulační orgány, včetně ex ante regulační schopnosti zaměřené na vývojáře; a že by se vláda měla podívat na to, zda by měl být zřízen AI ombudsman na podporu lidí nepříznivě ovlivněných AI.

Institut také doporučuje vládě, aby objasnila zákon týkající se umělé inteligence a odpovědnosti – což je další oblast, kde je EU již vpřed.

Pokud jde o bezpečnost základních modelů – oblast, která v poslední době získala zvláštní zájem a pozornost vlády Spojeného království díky virálnímu rozruchu kolem generativních nástrojů umělé inteligence, jako je ChatGPT od OpenAI – institut se také domnívá, že vláda musí jít dále a doporučuje vývojářům se sídlem ve Spojeném království základní modely by měly mít povinné požadavky na podávání zpráv, aby bylo pro regulační orgány snazší udržet si přehled o velmi rychle se rozvíjející technologii.

Dokonce naznačuje, že přední vývojáři základních modelů, jako jsou OpenAI, Google DeepMind a Anthropic, by měli být povinni poskytovat vládě oznámení, když oni (nebo jakýkoli subprocesor, se kterým pracují) zahájí rozsáhlá školení nových modelů.

„To by vládě poskytlo včasné varování o pokroku ve schopnostech umělé inteligence, což by umožnilo tvůrcům politik a regulačním orgánům připravit se na dopad tohoto vývoje, místo aby byli přistiženi v nevědomosti,“ navrhuje a dodává, že požadavky na podávání zpráv by měly zahrnovat také informace, jako je přístup k data používaná k trénování modelů; výsledky z interních auditů; a data dodavatelského řetězce.

Dalším návrhem je, aby vláda investovala do malých pilotních projektů, aby posílila své vlastní chápání trendů ve výzkumu a vývoji AI.

Michael Birtwistle, zástupce ředitele Institutu Ady Lovelace, v komentáři k závěrům zprávy v prohlášení řekl:

Vláda oprávněně uznává, že Spojené království má jedinečnou příležitost stát se světovým lídrem v regulaci umělé inteligence, a premiér by měl být pochválen za jeho globální vedení v této otázce. Důvěryhodnost Spojeného království v oblasti regulace umělé inteligence však spočívá na schopnosti vlády zajistit doma přední světový regulační režim. Snahy o mezinárodní koordinaci jsou velmi vítány, ale nejsou dostatečné. Vláda musí posílit své domácí návrhy regulace, pokud chce být brána vážně v oblasti umělé inteligence a dosáhnout svých globálních ambicí.

Read More

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *