Britský hlídací pes ochrany dat vypálil svůj dosud nejvýraznější varovný výstřel na vývojáře generativní umělé inteligence – řekl, že od nich očekává, že budou řešit rizika ochrany soukromí. před uvedení svých produktů na trh.

V blogovém příspěvku, který na konci dnešního dne pronese na konferenci vedoucího oddělení informačního komisaře (ICO) pro regulační rizika Stephen Almond, hlídací pes varoval před vývojáři spěchajícími s přijetím výkonné technologie umělé inteligence bez řádné náležité péče o soukromí a ochranu soukromí. rizika ochrany dat.

„Před zavedením generativní umělé inteligence prověříme, zda se firmy vypořádaly s riziky ochrany osobních údajů – a podnikneme opatření tam, kde existuje riziko poškození lidí špatným využíváním jejich dat. Nemůže existovat žádná omluva pro ignorování rizik ohrožujících lidská práva a svobody před zavedením,“ varuje Almond.

Bude také instruovat podniky působící na britském trhu, že budou muset ICO ukázat, „jak se vypořádaly s riziky, která se vyskytují v jejich kontextu – i když je základní technologie stejná“.

To znamená, že ICO bude zvažovat kontext spojený s aplikací generativní technologie umělé inteligence, s pravděpodobným větším očekáváním shody u aplikací pro zdraví využívající například generativní rozhraní AI API oproti aplikacím zaměřeným na maloobchod. (tl;dr tento druh due diligence není žádná velká věda, ale nečekejte, že se budete schovávat za „používáme API OpenAI, takže jsme si nemysleli, že musíme brát v úvahu soukromí, když jsme přidali chatbota s umělou inteligencí k vylepšení našeho sexuálního Typový řádek aplikace pro vyhledávání zdravotní kliniky…)

„Podniky správně vidí příležitost, kterou generativní umělá inteligence nabízí, ať už k vytvoření lepších služeb pro zákazníky nebo ke snížení nákladů na jejich služby. Nesmí však být slepí k rizikům ochrany osobních údajů,“ řekne také Almond a vyzve vývojáře, aby: „Věnujte hned na začátku čas tomu, abyste pochopili, jak umělá inteligence využívá osobní údaje, zmírnili všechna rizika, kterých si uvědomíte, a poté svou umělou inteligenci zavedli. přistupujte s důvěrou, že to nenaštve zákazníky ani regulační orgány.“

Pro představu, kolik by tento typ rizika mohl stát, pokud by byl nesprávně spravován, britská legislativa na ochranu údajů peče o pokuty za porušení, která mohou dosáhnout až 17,5 milionu GBP nebo 4 % celkového ročního celosvětového obratu v předchozím finančním roce, podle toho, co je vyšší.

Spleť pravidel umělé inteligence

Jako etablovaný regulační orgán byla ICO pověřena vypracováním pokynů pro ochranu soukromí a dat pro používání umělé inteligence podle přístupu, který vláda stanovila ve své nedávné bílé knize o umělé inteligenci.

Vláda uvedla, že upřednostňuje soubor „flexibilních“ principů a kontextově specifických pokynů vytvořených sektorově zaměřenými a průřezovými hlídacími psy pro regulaci AI – jako je úřad pro hospodářskou soutěž, úřad pro finanční chování, Ofcom a skutečně ICO – spíše než zavedení specializovaného legislativního rámce pro řízení rozvoje umělé inteligence, jaký je na stole nad Lamanšským průlivem v Evropské unii.

To znamená, že se objeví mozaika očekávání, jak se v nadcházejících týdnech a měsících vyvine britský hlídací pes a zdokonalí pokyny. (Úřad pro hospodářskou soutěž a trhy Spojeného království minulý měsíc oznámil revizi generativní umělé inteligence; zatímco na začátku tohoto měsíce Ofcom nabídl několik úvah o tom, co by generativní umělá inteligence mohla znamenat pro komunikační sektor, včetně podrobností o tom, jak monitoruje vývoj s ohledem na posouzení potenciálu. škodí.)

Krátce poté, co byla zveřejněna britská bílá kniha, ICO’s Almond zveřejnil seznam osmi otázek, o nichž řekl, že by si vývojáři generativní umělé inteligence (a uživatelé) měli klást sami sebe – včetně základních otázek, jako je jejich právní základ pro zpracování osobních údajů; jak budou plnit povinnosti transparentnosti; a zda vypracovali posouzení dopadu na ochranu údajů.

Dnešní varování je jasnější. ICO jasně prohlašuje, že očekává, že podniky nebudou její doporučení pouze brát na vědomí, ale budou se jimi řídit. Každý, kdo ignoruje tyto pokyny a snaží se urychleně uvést aplikace na trh, bude pro sebe generovat větší regulační riziko – včetně možnosti značných pokut.

Staví také na technickém varování, které hlídací pes vydal loni na podzim, když označil takzvanou „analýzu emocí“ AI za příliš riskantní pro cokoliv jiného než čistě triviální případy použití (jako jsou dětské párty hry), které varoval tento typ „nezralé“ biometrické technologie s sebou nesou větší riziko diskriminace než potenciální příležitosti.

„Ještě jsme neviděli, že by se nějaká technologie AI emocí vyvíjela způsobem, který by uspokojil požadavky na ochranu dat, a máme obecnější otázky ohledně proporcionality, spravedlnosti a transparentnosti v této oblasti,“ napsal tehdy ICO.

Zatímco vláda Spojeného království naznačila, že se nedomnívá, že k regulaci technologie je zapotřebí specializovaná legislativa nebo orgán dohledu zaměřený výhradně na umělou inteligenci, nedávno hovořila o tom, že vývojáři umělé inteligence by měli soustředit bezpečnost. A začátkem tohoto měsíce premiér Rishi Sunak oznámil plán uspořádat letos na podzim globální summit o bezpečnosti umělé inteligence, který se zdá být zaměřen na podporu výzkumného úsilí. Tento nápad si rychle získal buy-in od řady gigantů AI.

Read More

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *