Common Sense, známá nezisková organizace, která se věnuje ochraně soukromí spotřebitelů, digitálnímu občanství a poskytuje hodnocení médií pro rodiče, kteří chtějí hodnotit aplikace, hry, podcasty, televizní pořady, filmy a knihy, které jejich děti konzumují, dnes ráno oznámila, že představí jiný typ produktu do svého systému hodnocení a recenzí: produkty technologie AI. Organizace říká, že vybuduje nový systém hodnocení, který bude hodnotit produkty umělé inteligence v řadě dimenzí, včetně toho, zda tato technologie využívá „odpovědné postupy umělé inteligence“ a také její vhodnost pro děti.

Nové recenze produktů AI se zaměří zejména na ty, které používají děti a pedagogové, poznamenává Common Sense.

Rozhodnutí zahrnout produkty AI do své řady přišlo na základě průzkumu, který provedl ve spojení s Impact Research, který zjistil, že 82 % rodičů hledalo systém hodnocení, který by jim pomohl vyhodnotit, zda nové produkty AI, jako je ChatGPT, či nikoli, byly vhodné pro děti. Více než tři čtvrtiny respondentů (77 %) také uvedlo, že se zajímají o produkty s umělou inteligencí, které by mohly pomoci dětem učit se, ale pouze 40 % uvedlo, že znají spolehlivý zdroj, který by mohli použít, aby se dozvěděli více o vhodnosti produktů umělé inteligence pro jejich děti.

Nový systém bude navržen s pomocí odborníků v oblasti umělé inteligence a jeho cílem bude také informovat o nadcházejících legislativních a regulačních snahách týkajících se online bezpečnosti pro nezletilé, uvedla organizace.

Nezávislý systém hodnocení a recenzí médií Common Sense, který se nachází na commonsensemedia.org, obvykle poskytne hodnocení vhodnosti pro věk spolu s mírou toho, kolik pozitivního nebo negativního obsahu mohou média obsahovat, a to v oblastech, jako jsou pozitivní vzory a poselství a různorodé zastoupení, nebo z té negativnější stránky věci jako násilí, vulgárnost, děsivost, užívání drog a další. Není jasné, jak Common Sense plánuje hodnotit produkty AI v rámci nového systému.

V pozičním dokumentu zveřejněném v dubnu 2023 však Common Sense varoval před několika aktuálními problémy s moderní umělou inteligencí, včetně často nedostatku „smysluplných mantinelů“, které mohou být nebezpečné pro děti. Kromě toho varovala, že generativní technologie umělé inteligence, jako je ChatGPT od OpenAI, by mohly být náchylné ke zkreslení v jejich tréninkových datech, která zahrnují velké datové sady, jako jsou webové stránky, knihy a články – jako je obsah stažený z internetu.

„Kromě obav o autorská práva… množství dat potřebných k trénování generativních modelů téměř zaručuje, že jakýkoli generativní model byl do určité míry trénován na neobjektivních informacích, stereotypech a dezinformacích, které mohou být všechny propagovány nebo reprodukovány při vytváření výstupu,“ papír zaznamenal.

Common Sense nesdělil časový rámec, kdy očekává spuštění svého nového systému hodnocení a recenzí AI, ale zdůraznil naléhavost vybudování takového zdroje.

„Musíme jednat hned, abychom zajistili, že rodiče, pedagogové a mladí lidé budou informováni o nebezpečích a možnostech umělé inteligence a produktů, jako je ChatGPT,“ uvedl v prohlášení James P. Steyer, zakladatel a generální ředitel společnosti Common Sense Media. „Je důležité, aby existoval důvěryhodný, nezávislý systém hodnocení třetích stran, který by informoval veřejnost a tvůrce politik o neuvěřitelném dopadu umělé inteligence. V posledních letech řada technologických společností upřednostnila zisky před blahobytem dětí a rodin. Tento film jsme viděli již dříve, se vznikem sociálních médií a následným selháním regulace těchto platforem, a bohužel víme, jak tato verze končí. Jednoduše řečeno, nesmíme dělat stejné chyby s umělou inteligencí, což bude mít ještě větší důsledky pro děti a společnost,“ dodal.

Kromě hodnocení médií se zisková pobočka organizace, Common Sense Networks, inspirovala svými doporučeními pro děti, když v roce 2021 spustila streamovací službu s názvem Sensical. Tato služba nabízí videa vhodná pro děti od dvou let. přes 10.

Read More

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *