Keňští pracovníci, kteří pomohli odstranit škodlivý obsah na ChatGPT, chytrém vyhledávači OpenAI, který generuje obsah na základě uživatelských výzev, podali petici před zákonodárci země, aby je vyzvali, aby zahájili vyšetřování moderování obsahu Big Tech outsourcingu a práce AI v Keni.
Předkladatelé petice chtějí vyšetřování „povahy práce, pracovních podmínek a operací“ velkých technologických společností, které outsourcují služby v Keni prostřednictvím společností jako Sama – což je jádrem několika soudních sporů o údajném vykořisťování, vylučování odborů a nezákonném hromadném propouštění moderátorů obsahu.
Petice následuje po zprávě Time, která podrobně popisuje žalostné odměňování pracovníků Sama, díky nimž je ChatGPT méně toxický, a povahu jejich práce, která vyžadovala čtení a označování grafického textu, včetně popisu scén vraždy, sodomie a znásilnění. Zpráva uvedla, že na konci roku 2021 byla Sama najata OpenAI, aby „označila textové popisy sexuálního zneužívání, nenávistných projevů a násilí“ jako součást práce na vytvoření nástroje (který byl zabudován do ChatGPT) pro detekci toxického obsahu.
Pracovníci tvrdí, že byli vykořisťováni a nenabízeli jim psychosociální podporu, přesto byli vystaveni škodlivému obsahu, který v nich zanechal „vážnou duševní chorobu“. Zaměstnanci chtějí, aby zákonodárci „regulovali outsourcing škodlivých a nebezpečných technologií“ a chránili pracovníky, kteří to dělají.
Vyzývají je také, aby uzákonily legislativu regulující „outsourcing práce se škodlivými a nebezpečnými technologiemi a ochranu pracovníků, kteří jsou zapojeni do takových závazků“.
Sama říká, že mezi její klienty patří 25 % společností z Fortune 50, včetně Googlu a Microsoftu. Hlavním předmětem podnikání společnosti se sídlem v San Franciscu je anotace, kurátorství a ověřování dat počítačového vidění. Ve svých centrech, včetně toho v Keni, zaměstnává více než 3 000 lidí. Začátkem tohoto roku Sama upustila od služeb moderování obsahu, aby se soustředila na anotaci dat počítačového vidění, a propustila 260 zaměstnanců.
Odpověď OpenAI na údajné zneužívání uznala, že práce byla náročná, a dodala, že zavedla a sdílela etické a wellness standardy (aniž by uváděla další podrobnosti o přesných opatřeních) se svými datovými anotátory, aby práce byla dodána „lidsky a ochotně“.
Poznamenali, že pro vybudování bezpečné a prospěšné umělé obecné inteligence byla anotace lidských dat jedním z mnoha proudů její práce shromažďovat zpětnou vazbu od lidí a vést modely k bezpečnějšímu chování v reálném světě.
„Uvědomujeme si, že je to náročná práce pro naše výzkumníky a anotační pracovníky v Keni a po celém světě – jejich úsilí o zajištění bezpečnosti systémů umělé inteligence bylo nesmírně cenné,“ řekl mluvčí OpenAI.
Sama řekla TechCrunch, že je otevřená spolupráci s keňskou vládou, „aby zajistila, že základní ochrana bude zavedena ve všech společnostech“. Uvedla, že vítá audity svých pracovních podmínek prováděné třetími stranami a dodala, že zaměstnanci mají několik kanálů, jak vyjádřit své obavy, a že „provedla několik externích a interních hodnocení a auditů, abychom zajistili, že vyplácíme spravedlivé mzdy a poskytujeme důstojné pracovní prostředí“.