Udržet krok s tak rychle se rozvíjejícím odvětvím, jako je umělá inteligence, je náročný úkol. Takže dokud to za vás neudělá umělá inteligence, zde je praktický souhrn nedávných příběhů ze světa strojového učení spolu s pozoruhodnými výzkumy a experimenty, které jsme sami o sobě nepokryli.
Tento týden se SpeedyBrand, společnost využívající generativní umělou inteligenci k vytváření obsahu optimalizovaného pro SEO, vynořila z utajení s podporou Y Combinator. Zatím nepřilákala mnoho finančních prostředků (2,5 milionu dolarů) a její zákaznická základna je relativně malá (asi 50 značek). Ale přimělo mě to přemýšlet o tom, jak generativní AI začíná měnit složení webu.
Jak v nedávném článku napsal James Vincent z The Verge, generativní modely umělé inteligence zlevňují a zjednodušují vytváření méně kvalitního obsahu. NewsGuard, společnost, která poskytuje nástroje pro prověřování zpravodajských zdrojů, odhalila stovky webů podporovaných reklamami s obecně znějícími názvy s dezinformacemi vytvořenými pomocí generativní umělé inteligence.
Inzerentům to způsobuje problém. Zdá se, že mnoho webů, na které se zaměřuje NewsGuard, bylo vytvořeno výhradně pro zneužití programatické reklamy nebo automatizovaných systémů pro vkládání reklam na stránky. NewsGuard ve své zprávě našel téměř 400 případů reklam od 141 hlavních značek, které se objevily na 55 nevyžádaných zpravodajských serverech.
Obavy by neměli mít jen inzerenti. Jak zdůrazňuje Kyle Barr z Gizmodo, může stačit jeden článek vygenerovaný umělou inteligencí, aby vyvolal hory zapojení. A i když každý článek vygenerovaný umělou inteligencí vygeneruje jen pár dolarů, je to méně než náklady na vygenerování textu v první řadě – a potenciální peníze na reklamu, které nebudou zasílány na legitimní weby.
Jaké je tedy řešení? existuje nějaká? Je to dvojice otázek, které mě v noci stále více zdržují. Barr naznačuje, že je povinností vyhledávačů a reklamních platforem uplatňovat pevnější sevření a trestat špatné herce, kteří využívají generativní AI. Ale vzhledem k tomu, jak rychle se pole pohybuje – a nekonečně škálovatelné povaze generativní umělé inteligence – nejsem přesvědčen, že mohou držet krok.
Spamový obsah samozřejmě není žádným novým fenoménem a už dříve tu byly vlny. Web se přizpůsobil. Tentokrát je rozdíl v tom, že překážka vstupu je dramaticky nízká – jak z hlediska nákladů, tak z hlediska času, který je třeba investovat.
Vincent zasáhne optimistický tón, což naznačuje, že pokud web je Pokud by se to nakonec přehnalo nevyžádanou umělou inteligencí, mohlo by to podnítit vývoj lépe financovaných platforem. Nejsem si tak jistý. Není však pochyb o tom, že se nacházíme v inflexním bodě a že rozhodnutí, která jsou nyní učiněna ohledně generativní umělé inteligence a jejích výstupů, ovlivní funkci webu ještě nějakou dobu.
Zde jsou další pozoruhodné příběhy AI z posledních dnů:
OpenAI oficiálně spouští GPT-4: OpenAI tento týden oznámila všeobecnou dostupnost GPT-4, svého nejnovějšího modelu pro generování textu, prostřednictvím svého placeného API. GPT-4 dokáže generovat text (včetně kódu) a přijímat obrazové a textové vstupy – vylepšení oproti GPT-3.5, jeho předchůdci, který akceptoval pouze text – a funguje na „lidské úrovni“ v různých profesionálních a akademických měřítcích. Ale není to dokonalé, jak jsme si všimli v našem předchozím pokrytí. (Mezitím je hlášeno, že přijetí ChatGPT není k dispozici, ale uvidíme.)
Jak dostat „superinteligentní“ AI pod kontrolu: V dalších novinkách OpenAI společnost vytváří nový tým vedený Ilyou Sutskeverem, jejím hlavním vědcem a jedním ze spoluzakladatelů OpenAI, aby vyvinul způsoby, jak řídit a ovládat „superinteligentní“ systémy AI.
Zákon proti zaujatosti pro NYC: Po měsících odkladů začalo New York City tento týden prosazovat zákon, který vyžaduje, aby zaměstnavatelé používající algoritmy k náboru, najímání nebo povyšování zaměstnanců předložili tyto algoritmy k nezávislému auditu – a zveřejnili výsledky.
Valve mlčky dává zelenou hrám generovaným umělou inteligencí: Valve vydalo vzácné prohlášení poté, co tvrdilo, že odmítá hry s aktivy generovanými AI ze svého obchodu s hrami Steam. Notoricky důvěrný vývojář uvedl, že jeho politika se vyvíjí a nestaví se proti AI.
Humane odhaluje Ai Pin: Humane, startup založený bývalým designérským a inženýrským duem společnosti Apple Imran Chaudhri a Bethany Bongiorno, tento týden odhalil podrobnosti o svém prvním produktu: The Ai Pin. Jak se ukázalo, produkt společnosti Humane je nositelný gadget s promítaným displejem a funkcemi poháněnými umělou inteligencí – jako futuristický smartphone, ale v podstatně odlišném tvaru.
Upozornění ohledně nařízení EU o umělé inteligenci: Hlavní tech zakladatelé, generální ředitelé, VC a průmysloví giganti v celé Evropě podepsali tento týden otevřený dopis Evropské komisi, v němž varovali, že Evropa by mohla přijít o generativní revoluci AI, pokud EU přijme zákony potlačující inovace.
Deepfake podvod obchází kola: Podívejte se na tento klip britského šampióna spotřebitelského financování Martina Lewise, který zjevně šilinkuje investiční příležitost podporovanou Elonem Muskem. Zdá se to normální, že? Nepřesně. Je to deepfake generovaný umělou inteligencí – a potenciálně letmý pohled na utrpení generované umělou inteligencí, které se rychle zrychluje na našich obrazovkách.
Sexuální hračky s umělou inteligencí: Lovense – možná nejlépe známý pro své dálkově ovladatelné sexuální hračky – tento týden oznámil svého ChatGPT Pleasure Companion. Aplikace „Advanced Lovense ChatGPT Pleasure Companion“, která byla spuštěna v beta verzi v aplikaci pro dálkové ovládání společnosti, vás zve, abyste si dopřáli šťavnaté a erotické příběhy, které Companion vytváří na základě vámi zvoleného tématu.
Další strojové učení
Náš výzkum začíná dvěma velmi odlišnými projekty z ETH Zurich. První je aiEndoscopic, inteligentní intubace spinoff. Intubace je nezbytná pro přežití pacienta za mnoha okolností, ale je to složitý manuální postup, který obvykle provádějí specialisté. IntuBot využívá počítačové vidění k rozpoznání a reakci na živý příjem z úst a krku, navádění a korekci polohy endoskopu. To by mohlo lidem umožnit bezpečnou intubaci v případě potřeby, místo aby čekali na specialistu, což potenciálně zachraňuje životy.
Tady to vysvětlují trochu podrobněji:
V úplně jiné oblasti přispěli výzkumníci ETH Zurich z druhé ruky do filmu Pixar tím, že propagovali technologii potřebnou k oživení kouře a ohně, aniž by se stali obětí fraktální složitosti dynamiky tekutin. Jejich přístupu si všimli a vybudovali na něm společnosti Disney a Pixar ve filmu „Elemental“. Zajímavé je, že nejde ani tak o simulační řešení, jako spíše o přenos stylu – chytrá a zřejmě docela cenná zkratka. (Obrázek nahoře je z tohoto.)
Umělá inteligence v přírodě je vždy zajímavá, ale umělá inteligence v přírodě, jak je aplikována na archeologii, je ještě zajímavější. Výzkum vedený univerzitou Yamagata se zaměřil na identifikaci nových linií Nasca – obrovských „geoglyfů“ v Peru. Možná si myslíte, že když jsou viditelné z oběžné dráhy, budou docela zřejmé – ale eroze a stromová pokrývka z tisíciletí od doby, kdy byly tyto záhadné útvary vytvořeny, znamenají, že se v nedohlednu skrývá neznámé číslo. Poté, co byl trénován na leteckých snímcích známých a zakrytých geoglyfů, byl model hlubokého učení uvolněn pro další pohledy a překvapivě odhalil nejméně čtyři nové, jak můžete vidět níže. Docela vzrušující!
Čtyři geoglyfy Nasca nově objevené agentem AI. Poděkování za obrázky: Univerzita Yamagata
V bezprostřednějším smyslu, technologie sousedící s umělou inteligencí vždy nachází novou práci při detekci a předpovídání přírodních katastrof. Inženýři ze Stanfordu shromažďují data pro trénování budoucích modelů předpovědi požárů tím, že provádějí simulace ohřátého vzduchu nad lesním baldachýnem v 30stopé vodní nádrži. Máme-li modelovat fyziku plamenů a uhlíků putujících za hranice divokého požáru, budeme jim muset lépe porozumět a tento tým dělá, co může, aby se tomu přiblížil.
Na UCLA se zabývají tím, jak předpovídat sesuvy půdy, které jsou častější, když se mění požáry a další faktory životního prostředí. Ale zatímco umělá inteligence již byla k jejich předpovědi s určitým úspěchem použita, „neukazuje svou práci“, což znamená, že předpověď nevysvětluje, zda je to kvůli erozi, posunu hladiny podzemní vody nebo tektonické aktivitě. Nový přístup „překrývající se neuronové sítě“ má vrstvy sítě, které používají různá data, ale běží spíše paralelně než všechny dohromady, takže výstup je o něco konkrétnější, ve kterých proměnné vedly ke zvýšenému riziku. Je to také mnohem efektivnější.
Google se dívá na zajímavou výzvu: Jak přimět systém strojového učení, aby se učil z nebezpečných znalostí, ale nešířil je? Pokud například jeho tréninková sada obsahuje recept na napalm, nechcete, aby ho opakoval – ale aby věděl, že ho nemá opakovat, potřebuje vědět, co neopakuje. Paradox! Technologický gigant tedy hledá metodu „strojového odnaučení“, která umožní tento druh vyvažování bezpečně a spolehlivě.
Pokud hledáte hlubší pohled na to, proč se zdá, že lidé důvěřují modelům AI bez dobrého důvodu, nehledejte nic jiného než tento úvodník Science od Celeste Kidd (UC Berkeley) a Abeby Birhane (Mozilla). Dostává se do psychologických základů důvěry a autority a ukazuje, jak je současní agenti AI v podstatě využívají jako odrazové můstky k eskalaci své vlastní hodnoty. Je to opravdu zajímavý článek, pokud chcete o víkendu znít chytře.
Ačkoli často slýcháme o nechvalně známém falešném šachovém automatu Mechanical Turk, tato šaráda inspirovala lidi k vytvoření toho, co předstíral. IEEE Spectrum má fascinující příběh o španělském fyzikovi a inženýrovi Torresovi Quevedovi, který vytvořil skutečného hráče mechanického šachu. Jeho schopnosti byly omezené, ale podle toho poznáte, že to bylo skutečné. Někteří dokonce tvrdí, že jeho šachový automat byl první „počítačovou hrou“. K zamyšlení.