Dnes dříve na konferenci Bloomberg v San Franciscu se objevila některá z největších jmen v oblasti umělé inteligence, včetně, krátce, Sam Altman z OpenAI, který právě ukončil své dvouměsíční světové turné, a zakladatel Stability AI Emad Mostaque. Přesto se jeden z nejpoutavějších rozhovorů odehrál později odpoledne v panelové diskusi o etice umělé inteligence.
Představujeme Meredith Whittaker (na obrázku výše), prezidentku aplikace pro bezpečné zasílání zpráv Signal; Spoluzakladatelka a generální ředitelka Credo AI Navrina Singh; a Alex Hanna, ředitel výzkumu v Distributed AI Research Institute, měli všichni tři jednotnou zprávu pro publikum, která zněla: Nenechte se tolik rozptylovat sliby a hrozbami spojenými s budoucností AI. Není to magie, není to plně automatizované a – podle Whittakera – je to již rušivé nad rámec všeho, co většina Američanů zdánlivě chápe.
Hanna například poukázala na mnoho lidí po celém světě, kteří pomáhají trénovat dnešní velké jazykové modely, a naznačila, že tito jedinci jsou v některých bezdechových zprávách o generativní umělé inteligenci zčásti proto, že jejich práce není okouzlující, a zčásti proto, že nezapadá do současného vyprávění o AI.
Hanna řekla: „Z hlášení víme . . .že existuje armáda pracovníků, kteří v zákulisí dělají poznámky, aby tyto věci vůbec fungovaly v jakékoli míře – pracovníci, kteří pracují s Amazon Mechanical Turk, lidé, kteří [the training data company] Sama — ve Venezuele, Keni, USA, vlastně po celém světě. . .Ve skutečnosti dělají označení, zatímco Sam [Altman] a Emad [Mostaque] a všichni tito ostatní lidé, kteří řeknou, že tyto věci jsou magie – ne. Jsou tam lidé. . . .Tyto věci se musí jevit jako autonomní a má to tu dýhu, ale pod tím je tolik lidské práce.“
Komentáře Whittakera, který dříve pracoval ve společnosti Google, spoluzaložil institut AI Now na NYU a byl poradcem Federální obchodní komise, byly ještě ostřejší (a také dopadly na základě nadšené reakce publika na ně). Jejím poselstvím bylo, že jakkoli je svět nyní okouzlen chatboty jako ChatGPT a Bard, technologie, která je oporou, je nebezpečná, zvláště když moc roste více koncentrovanou těmi na vrcholu pokročilé pyramidy umělé inteligence.
Whittaker řekl: „Řekl bych, že možná někteří lidé v tomto publiku jsou uživatelé AI, ale většina populace je předmět AI. . .Toto není záležitost individuální volby. Většina způsobů, kterými umělá inteligence interpoluje náš život, činí rozhodnutí, která utvářejí náš přístup ke zdrojům a příležitostem, v zákulisí způsoby, které pravděpodobně ani neznáme.“
Whittaker uvedl příklad někoho, kdo vejde do banky a požádá o půjčku. Tuto osobu lze popřít a „nemá ponětí, že je uvnitř nějaký systém [the] zpět pravděpodobně poháněno nějakým Microsoft API, které na základě seškrábaných sociálních médií určilo, že nejsem bonitní. To se nikdy nedozvím [because] neexistuje žádný mechanismus, abych to věděl.” Existují způsoby, jak to změnit, pokračovala, ale překonat současnou mocenskou hierarchii za tímto účelem je téměř nemožné, navrhla. “Jsem u stolu asi 15 let, 20 let.” já jsem byl u stolu. Být u stolu bez moci není nic.”
S Whittakerem by jistě mohlo souhlasit mnoho bezmocných lidí, včetně současných a bývalých zaměstnanců OpenAI a Googlu, kteří byli údajně pochybní v době přístupu jejich společností k uvádění produktů AI.
Moderátorka Bloombergu Sarah Frier se skutečně zeptala panelu, jak mohou znepokojení zaměstnanci mluvit bez strachu ze ztráty zaměstnání, na což Singh – jehož startup pomáhá společnostem s řízením AI – odpověděl: „Myslím, že hodně záleží na vedení a společnosti. hodnoty, abych byl upřímný. . . . V minulém roce jsme byli svědky toho, jak byly odpovědné týmy AI propouštěny.“
Mezitím je toho mnohem víc, čemu běžní lidé o tom, co se děje, nerozumí, navrhl Whittaker a nazval AI „technologií sledování“. Tváří v tvář davu upřesnila a poznamenala, že AI „vyžaduje dohled ve formě těchto masivních souborů dat, které zakotvují a rozšiřují potřebu více a více dat a stále intimnější sběr dat. Řešením všeho je více dat, více znalostí shromážděných v rukou těchto společností. Ale tyto systémy jsou také nasazeny jako sledovací zařízení. A myslím, že je opravdu důležité si uvědomit, že nezáleží na tom, zda výstup ze systému umělé inteligence pochází z nějakého pravděpodobnostního statistického odhadu, nebo zda jsou to data z mobilní věže, která trianguluje mou polohu. Ta data se stanou daty o mně. Nemusí to být správné. Nemusí to odrážet to, kdo jsem nebo kde jsem. Ale má moc nad mým životem, která je významná, a tato moc je vkládána do rukou těchto společností.“
Whittaker dodal: „Vennův diagram obav o AI a soukromí je kruh.“
Whittaker má zjevně svůj vlastní program až do bodu. Jak sama na akci řekla, „existuje svět, kde Signal a další legitimní technologie na ochranu soukromí přetrvávají“, protože lidem tato koncentrace moci stále méně vyhovuje.
Ale také, pokud nedojde k dostatečnému potlačení a brzy – jak se pokrok v AI zrychluje, zrychlují se i společenské dopady – budeme i nadále směřovat „cestou plnou humbuku směrem k AI,“ řekla, „kde je tato síla zakořeněna. a naturalizovaní pod rouškou inteligence a jsme sledováni do bodky [of having] velmi, velmi málo ovlivňování našich individuálních a kolektivních životů.”
Tento „zájem je existenciální a je mnohem větší než rámování umělé inteligence, které se často dává“.
Diskuse nás zaujala; pokud byste chtěli vidět celou věc, Bloomberg to od té doby zveřejnil zde.
Meredith Whittaker a další z nejostřejších mozků a profesionálů v oblasti kybernetické bezpečnosti se k nám připojí na TechCrunch Disrupt, aby diskutovali o největších výzvách v dnešním odvětví. Připojte se k nám a poslouchejte od hackerů, předních obránců a bezpečnostních výzkumníků čerpajících z jejich přímých znalostí a zkušeností o nejkritičtějších hrozbách a o tom, co s nimi lze dělat. Navíc zjistíte, jak funguje technologický gigant, aby udržoval miliardy uživatelů v bezpečí, a setkáte se se startupy, které pracují na zabezpečení kryptoměn, hardwaru a zasílání zpráv pro masy. Připojte se k nám a získejte 25% slevu na váš Disrupt 2023 pass s promo kódem secure25 – kupujte zde.