Jonathan A. Greenblatt Přispěvatel Sdílet na Twitteru Jonathan A. Greenblatt je CEO a národní ředitel Anti-Defamation League.
Když uslyšíte frázi „umělá inteligence“, může být lákavé představit si druhy inteligentních strojů, které jsou základem sci-fi nebo rozšířením druhů apokalyptické technofobie, které fascinují lidstvo od dob monstra Dr. Frankensteina.
Ale druhy AI, které se rychle integrují do podniků po celém světě, nejsou takové rozmanitosti – jsou to velmi reálné technologie, které mají skutečný dopad na skutečné lidi.
Zatímco umělá inteligence je v obchodním prostředí přítomna již léta, pokrok generativních produktů umělé inteligence, jako jsou ChatGPT, ChatSonic, Jasper AI a další, dramaticky zvýší snadnost použití pro průměrného člověka. V důsledku toho je americká veřejnost hluboce znepokojena potenciálem zneužití těchto technologií. Nedávný průzkum ADL zjistil, že 84 % Američanů se obává, že generativní AI zvýší šíření dezinformací a nenávisti.
Lídři, kteří zvažují přijetí této technologie, by si měli položit těžké otázky o tom, jak může utvářet budoucnost – v dobrém i zlém – když vstupujeme na tuto novou hranici. Zde jsou tři věci, o kterých doufám, že všichni lídři budou zvažovat při integraci generativních nástrojů umělé inteligence do organizací a pracovišť.
Udělejte z důvěry a bezpečí nejvyšší prioritu
Zatímco sociální média jsou zvyklá bojovat s moderováním obsahu, generativní umělá inteligence se zavádí na pracovištích, která nemají žádné předchozí zkušenosti s těmito problémy, jako je zdravotnictví a finance. Mnoho průmyslových odvětví se může brzy ocitnout před náročnými novými výzvami, když tyto technologie zavedou. Pokud jste zdravotnická společnost, jejíž chatbot poháněný umělou inteligencí je najednou k pacientovi hrubý nebo dokonce nenávistný, jak to budete řešit?
Přes veškerou svou sílu a potenciál generativní umělá inteligence usnadňuje, zrychluje a zpřístupňuje špatným aktérům produkci škodlivého obsahu.
Platformy sociálních médií během desetiletí vyvinuly novou disciplínu – důvěra a bezpečnost –, aby se pokusily obejít ožehavé problémy spojené s obsahem vytvářeným uživateli. Ne tak v jiných odvětvích.
Z tohoto důvodu budou společnosti muset přizvat odborníky na důvěru a bezpečnost, aby promluvili o jejich implementaci. Budou muset získat odborné znalosti a promyslet způsoby, jak lze tyto nástroje zneužít. A budou muset investovat do zaměstnanců, kteří jsou zodpovědní za řešení zneužívání, aby nebyli přistiženi, když tyto nástroje zneužívají špatní herci.
Postavte si vysoké mantinely a trvejte na průhlednosti
Zejména v pracovním nebo vzdělávacím prostředí je klíčové, aby platformy umělé inteligence měly adekvátní zábrany, které zabrání generování nenávistného nebo obtěžujícího obsahu.
I když jsou platformy AI neuvěřitelně užitečné, nejsou 100% spolehlivé. Během několika minut například testeři ADL nedávno použili aplikaci Expedia s její novou funkcí ChatGPT k vytvoření itineráře slavných protižidovských pogromů v Evropě a seznamu nedalekých obchodů s uměleckými potřebami, kde si lze údajně koupit barvy ve spreji. zapojit se do vandalismu na těchto stránkách.
Zatímco jsme byli svědky toho, že některé generativní umělé inteligence zlepšily své zacházení s otázkami, které mohou vést k antisemitským a jiným nenávistným odpovědím, viděli jsme, že jiné zaostávají při zajišťování toho, že nebudou přispívat k šíření nenávisti, obtěžování, konspiračních teorií a dalších typů škodlivý obsah.
Před širokým přijetím umělé inteligence by si lídři měli položit kritické otázky, jako například: Jaký druh testování se provádí, aby se zajistilo, že tyto produkty nebudou zneužity? Které datové sady se používají ke konstrukci těchto modelů? A jsou při vytváření těchto nástrojů integrovány zkušenosti komunit, na které se online nenávist nejvíce zaměřuje?
Bez transparentnosti z platforem prostě neexistuje žádná záruka, že tyto modely umělé inteligence neumožňují šíření zaujatosti nebo fanatismu.
Ochrana proti zbrojení
I přes robustní postupy důvěry a bezpečnosti může být AI běžnými uživateli stále zneužita. Jako lídři musíme povzbudit konstruktéry systémů umělé inteligence, aby zabudovali ochranu proti lidskému zbrojení.
Nástroje umělé inteligence bohužel přes všechnu svou sílu a potenciál usnadňují, zrychlují a zpřístupňují špatným hercům obsah pro kterýkoli z těchto scénářů. Dokážou produkovat přesvědčivé falešné zprávy, vytvářet vizuálně působivé deepfakes a šířit nenávist a obtěžování během několika sekund. Generativní obsah generovaný umělou inteligencí by také mohl přispět k šíření extremistických ideologií – nebo být použit k radikalizaci náchylných jedinců.
V reakci na tyto hrozby by platformy umělé inteligence měly zahrnovat robustní systémy moderování, které dokážou odolat potenciální záplavě škodlivého obsahu, kterou mohou pachatelé pomocí těchto nástrojů vytvořit.
Generativní umělá inteligence má téměř neomezený potenciál zlepšit životy a změnit způsob, jakým zpracováváme nekonečné množství informací dostupných online. Jsem nadšený z vyhlídek na budoucnost s AI, ale pouze se zodpovědným vedením.