Po měsících odkladů dnes New York City začalo prosazovat zákon, který vyžaduje, aby zaměstnavatelé využívající algoritmy k náboru, najímání nebo povyšování zaměstnanců předložili tyto algoritmy k nezávislému auditu – a zveřejnili výsledky. První svého druhu v zemi, legislativa — New York City Local Law 144 — také nařizuje, aby společnosti používající tyto typy algoritmů poskytovaly informace zaměstnancům nebo uchazečům o zaměstnání.
Minimálně ve zprávách, které musí společnosti zveřejnit, musí být uvedeny algoritmy, které používají, a také „průměrné skóre“, které kandidáti různých ras, etnik a pohlaví pravděpodobně obdrží z uvedených algoritmů – ve formě skóre. , klasifikace nebo doporučení. Musí také uvádět „poměry dopadů“ algoritmů, které zákon definuje jako průměrné skóre dané algoritmem všech lidí v konkrétní kategorii (např. černošských kandidátů) vydělené průměrným skóre lidí v kategorii s nejvyšším skóre.
Společnosti, u kterých bude zjištěno nedodržení, budou čelit sankcím ve výši 375 USD za první porušení, 1 350 USD za druhé porušení a 1 500 USD za třetí a jakékoli další porušení. Každý den, kdy společnost použije algoritmus v rozporu se zákonem, bude představovat samostatné porušení – stejně jako neposkytnutí dostatečného zveřejnění.
Důležité je, že oblast působnosti místního zákona 144, který byl schválen městskou radou a bude vynucován ministerstvem ochrany spotřebitelů a pracovníků New Yorku, přesahuje rámec zaměstnanců sídlících v New Yorku. Dokud osoba vystupuje nebo se uchází o práci ve městě, má nárok na ochranu podle nového zákona.
Mnozí to považují za opožděné. Khyati Sundaram, generální ředitel Applied, prodejce náborových technologií, poukázal na to, že zejména náborová umělá inteligence má potenciál zesílit stávající předsudky – v tomto procesu zhorší rozdíly v zaměstnanosti i odměňování.
„Zaměstnavatelé by se měli vyvarovat používání AI k nezávislému hodnocení nebo hodnocení kandidátů,“ řekl Sundaram TechCrunch e-mailem. „Ještě nejsme na místě, kde by se dalo nebo mělo věřit algoritmům, že tato rozhodnutí samy budou dělat bez zrcadlení a udržování předsudků, které již ve světě práce existují.“
Důkazy o zaujatosti pronikající do náborových algoritmů nemusíme hledat daleko. Amazon zrušil náborový nástroj v roce 2018 poté, co bylo zjištěno, že diskriminuje kandidátky. A akademická studie z roku 2019 ukázala protičernošské zaujatosti s umělou inteligencí při náboru.
Jinde byly nalezeny algoritmy, které přidělují uchazečům o zaměstnání různá skóre na základě kritérií, jako je to, zda nosí brýle nebo šátek; penalizovat uchazeče za to, že mají černě znějící jméno, zmiňují vysokou školu pro ženy nebo předkládají svůj životopis pomocí určitých typů souborů; a znevýhodňují lidi s tělesným postižením, které omezuje jejich schopnost komunikovat s klávesnicí.
Předsudky mohou být hluboké. Studie University of Cambridge z října 2022 naznačuje, že společnosti s umělou inteligencí, které tvrdí, že nabízejí objektivní, meritokratická hodnocení, jsou nepravdivé a tvrdí, že opatření proti předsudkům k odstranění pohlaví a rasy jsou neúčinná, protože ideální zaměstnanec je historicky ovlivněn jejich pohlavím a rasou.
Rizika však přijetí nezpomalují. Podle průzkumu Společnosti pro řízení lidských zdrojů z února 2022 téměř jedna ze čtyř organizací již využívá umělou inteligenci k podpoře svých náborových procesů. Toto procento je ještě vyšší – 42 % – u zaměstnavatelů s 5 000 a více zaměstnanci.
Jaké formy algoritmů tedy zaměstnavatelé přesně používají? Se liší. Některé z běžnějších jsou textové analyzátory, které třídí životopisy a průvodní dopisy na základě klíčových slov. Existují však také chatboti, kteří provádějí online pohovory, aby vyloučili uchazeče s určitými rysy, a software pro pohovory navržený tak, aby předvídal schopnosti kandidáta řešit problémy, jeho schopnosti a „kulturní přizpůsobení“ z jejich řečových vzorů a výrazů obličeje.
Rozsah náborových a náborových algoritmů je ve skutečnosti tak široký, že některé organizace nevěří, že místní zákon 144 jde dostatečně daleko.
NYCLU, newyorská pobočka American Civil Liberties Union, tvrdí, že zákon „daleko zaostává“, pokud jde o poskytování ochrany kandidátům a pracovníkům. Daniel Schwarz, hlavní stratég pro ochranu soukromí a technologie v NYCLU, ve zprávě o zásadách poznamenává, že místní zákon 144 by mohl být chápán tak, že se vztahuje pouze na podmnožinu náborových algoritmů – například s výjimkou nástrojů, které přepisují text z video a audio rozhovorů. (Vzhledem k tomu, že nástroje pro rozpoznávání řeči mají dobře známý problém zkreslení, je to samozřejmě problematické.)
„… navrhovaná pravidla [must be strengthened to] zajistit široké pokrytí [hiring algorithms]rozšířit požadavky na audit zkreslení a zajistit transparentnost a smysluplné upozornění dotčeným lidem, aby to bylo zajištěno [algorithms] nepracujte s cílem digitálně obcházet zákony New York City proti diskriminaci,“ napsal Schwarz. “Kandidáti a pracovníci by se neměli bát, že budou prověřováni diskriminačním algoritmem.”
Souběžně s tím se průmysl pouští do předběžného úsilí o samoregulaci.
V prosinci 2021 byla spuštěna aliance Data & Trust Alliance, jejímž cílem je vyvinout systém hodnocení a bodování pro umělou inteligenci za účelem odhalování a potírání algoritmických zkreslení, zejména zkreslení při přijímání zaměstnanců. Skupina v jednu chvíli počítala mezi své členy CVS Health, Deloitte, General Motors, Humana, IBM, Mastercard, Meta, Nike a Walmart a získala značné pokrytí v tisku.
Není překvapením, že Sundaram je pro tento přístup.
„Spíše než doufat, že regulační orgány doženou a omezí nejhorší excesy náborové umělé inteligence, je na zaměstnavatelích, aby byli ostražití a byli opatrní při používání umělé inteligence v náborových procesech,“ řekl. „AI se vyvíjí rychleji, než mohou být schváleny zákony, které regulují její používání. Zákony, které budou nakonec schváleny – včetně New Yorku – budou z tohoto důvodu pravděpodobně nesmírně komplikované. Společnosti tak budou vystaveny riziku nesprávného výkladu nebo přehlížení různých právních spletitostí a na oplátku budou marginalizovaní kandidáti nadále přehlíženi.
Mnozí by samozřejmě tvrdili, že to, že společnosti vyvíjejí certifikační systém pro produkty umělé inteligence, které používají nebo vyvíjejí, je problematické hned od začátku.
I když je v určitých oblastech nedokonalý, podle kritiků je místní zákon 144 dělá vyžadovat, aby audity prováděly nezávislé subjekty, které se nepodílely na používání, vývoji nebo distribuci algoritmu, který testují, a které nemají vztah se společností předkládající algoritmus k testování.
Ovlivní nakonec místní zákon 144 změnu? Je příliš brzy na to říct. Úspěch – nebo neúspěch – jeho implementace však jistě ovlivní zákony, které přijdou jinde. Jak je uvedeno v nedávném článku pro Nerdwallet, Washington, DC, zvažuje pravidlo, které by zaměstnavatele pohnalo k odpovědnosti za zabránění zkreslení v automatizovaných rozhodovacích algoritmech. V posledních několika letech byly v Kalifornii představeny dva zákony, jejichž cílem je regulovat umělou inteligenci při najímání zaměstnanců. A koncem prosince byl v New Jersey představen návrh zákona, který by reguloval používání AI při rozhodování o náboru, aby se minimalizovala diskriminace.