Poté, co vláda Spojeného království minulý týden oznámila, že letos na podzim plánuje uspořádat „globální“ summit o bezpečnosti umělé inteligence, zahájil premiér Rishi Sunak London Tech Week další novinkou – sdělil návštěvníkům konference, že OpenAI, Google DeepMind a Anthropic se zavázaly. poskytovat „včasný nebo prioritní přístup“ ke svým modelům umělé inteligence na podporu výzkumu hodnocení a bezpečnosti.
Sunak v posledních týdnech zrychlil konverzi na téma bezpečnosti umělé inteligence po řadě zásahů gigantů AI, kteří varovali před existenčními riziky a dokonce i na úrovni vyhynutí, které by technologie mohla představovat, pokud nebude řádně regulována.
“Budeme dělat špičku.” [AI] bezpečnostní výzkum zde ve Spojeném království,“ slíbil dnes Sunak. „Se 100 miliony liber pro naši odbornou pracovní skupinu věnujeme více finančních prostředků na bezpečnost AI než kterákoli jiná vláda.
Tato pracovní skupina pro bezpečnost AI se zaměří na základní modely AI, uvedla také vláda.
Se 100 miliony liber pro naši AI Taskforce věnujeme více finančních prostředků na bezpečnost AI než kterákoli jiná země na světě.
Budeme také spolupracovat s @DeepMind, @OpenAI a @Anthropic, které nám poskytnou včasný nebo přednostní přístup k modelům pro účely výzkumu a bezpečnosti. pic.twitter.com/SKypEisfXX
— Rishi Sunak (@RishiSunak) 12. června 2023
„Spolupracujeme s hraničními laboratořemi – Google DeepMind, OpenAI a Anthropic,“ dodal Sunak. “A s potěšením oznamuji, že se zavázali poskytnout včasný nebo přednostní přístup k modelům pro výzkumné a bezpečnostní účely, aby pomohli vytvořit lepší hodnocení a pomohli nám lépe porozumět příležitostem a rizikům těchto systémů.”
Premiér také zopakoval své dřívější oznámení o nadcházejícím summitu o bezpečnosti umělé inteligence, ve snaze přirovnat úsilí ke klimatickým konferencím COP, jejichž cílem je dosáhnout globálního zapojení do boje proti změně klimatu.
„Stejně jako se sjednotíme prostřednictvím COP, abychom se vypořádali se změnou klimatu, bude Spojené království koncem tohoto roku hostit vůbec první Summit o globální bezpečnosti umělé inteligence,“ řekl a dodal: „Chci, aby Spojené království nebylo jen domovem intelektuálů, ale i geografickým domovem. globální bezpečnostní regulace AI.“
Evangelizace bezpečnosti AI je pro Sunakovu vládu výraznou změnou rychlosti.
Ještě v březnu byla plně v režimu AI roztleskávaček – tehdy v bílé knize uvedla, že upřednostňuje „proinovační přístup k regulaci AI“. Přístup uvedený v dokumentu bagatelizoval obavy o bezpečnost tím, že se vyhnul potřebě zákonů na míru pro umělou inteligenci (nebo vyhrazeného hlídače umělé inteligence) ve prospěch stanovení několika „flexibilních principů“. Vláda také navrhla, aby dohled nad aplikacemi umělé inteligence vykonávaly stávající regulační orgány, jako je antimonopolní hlídací pes a úřad pro ochranu údajů.
Rychle vpřed o několik měsíců a Sunank nyní mluví o tom, že by Spojené království chtělo zastřešit globálního hlídače bezpečnosti umělé inteligence. Nebo alespoň to, že chce, aby Spojené království vlastnilo konverzaci o bezpečnosti AI tím, že bude dominovat ve výzkumu, jak vyhodnocovat výstupy algoritmů učení.
Zdá se, že rychlý vývoj generativní umělé inteligence v kombinaci s veřejnými prohlášeními řady technologických gigantů a osobností z odvětví umělé inteligence, která varovala před tím, že by se technologie mohla vymknout kontrole, vedly k rychlému přehodnocení strategie v Downing Street.
Je také pozoruhodné, že giganti AI v posledních týdnech osobně nakláněli Sunakovi ucho a setkání mezi premiérem a generálními řediteli společností OpenAI, DeepMind a Anthropic se konala krátce předtím, než se změnila vládní nálada na AI.
Pokud se tato trojice gigantů umělé inteligence bude držet svých závazků poskytnout Spojenému království pokročilý přístup ke svým modelům, má tato země šanci stát se v čele výzkumu ve vývoji účinných technik hodnocení a auditu – a to i dříve, než se roztočí jakékoli režimy legislativního dohledu nařizující transparentnost algoritmů. jinde (očekává se, že návrh zákona Evropské unie o umělé inteligenci nabude právní platnosti například až v roce 2026; ačkoli zákon EU o digitálních službách již vstoupil v platnost a již vyžaduje určitou transparentnost algoritmů od technologických gigantů).
Zároveň existuje riziko, že se Spojené království stává zranitelným vůči průmyslovému zachycení jeho rodícího se úsilí o bezpečnost AI. A pokud se giganti AI dostanou do konverzace kolem výzkumu bezpečnosti AI tím, že poskytnou selektivní přístup ke svým systémům, mohli by mít dobrou pozici k utváření jakýchkoli budoucích britských pravidel AI, která by se vztahovala na jejich podniky.
Úzké zapojení technologických gigantů AI do veřejně financovaného výzkumu bezpečnosti jejich komerčních technologií před tím, než na ně bude aplikován jakýkoli právně závazný bezpečnostní rámec AI, naznačuje, že budou mít alespoň prostor zarámovat, jak se na bezpečnost AI dívá a které komponenty, témata a témata jsou upřednostňována (a která jsou proto bagatelizována). A ovlivňováním toho, jaký druh výzkumu probíhá, protože to může záviset na tom, jaký přístup poskytují.
Mezitím etici umělé inteligence již dlouho varovali, že obavy z toho, jaká rizika by „superinteligentní“ umělá inteligence mohla pro lidi představovat, přehluší diskuse o škodách v reálném světě, které stávající technologie umělé inteligence již generují, včetně zaujatosti a diskriminace, zneužívání soukromí, porušování autorských práv a zdrojů životního prostředí. vykořisťování.
Takže i když vláda Spojeného království může považovat nákup gigantů AI za PR převrat, pokud má summit o AI a širší úsilí o bezpečnost AI přinést robustní a důvěryhodné výsledky, musí zajistit zapojení nezávislých výzkumníků, skupin občanské společnosti a skupin, které jsou nepřiměřeně vystaveni riziku poškození automatizací, nejen vytrubovat svůj plán na partnerství mezi „skvělými společnostmi s umělou inteligencí“ a místními akademiky – vzhledem k tomu, že akademický výzkum je již často závislý na financování od technologických gigantů.