Přispěvatel Ayal Yogev Sdílet na Twitteru Ayal Yogev je spoluzakladatel a generální ředitel Anjuna, multicloudové důvěrné počítačové platformy.
Generativní AI má potenciál vše změnit. Může informovat nové produkty, společnosti, průmyslová odvětví a dokonce i ekonomiky. Ale to, co ji odlišuje a je lepší než „tradiční“ AI, může být také nebezpečné.
Jeho jedinečná schopnost vytvářet otevřela zcela nový soubor obav o bezpečnost a soukromí.
Podniky si najednou musí klást nové otázky: Mám práva na data školení? Na modelku? K výstupům? Má samotný systém práva na data, která budou vytvořena v budoucnu? Jak jsou chráněna práva k tomuto systému? Jak mohu řídit soukromí dat v modelu využívajícím generativní AI? Seznam pokračuje.
Není žádným překvapením, že mnoho podniků šlape na lehkou váhu. Do očí bijící zranitelnosti zabezpečení a soukromí spolu s váhavostí spoléhat se na existující řešení Band-Aid přiměly mnohé k úplnému zákazu těchto nástrojů. Ale je tu naděje.
Confidential computing – nový přístup k zabezpečení dat, který chrání data při používání a zajišťuje integritu kódu – je odpovědí na složitější a závažnější bezpečnostní problémy velkých jazykových modelů (LLM). Je připraven pomoci podnikům využít plný výkon generativní umělé inteligence bez kompromisů v oblasti bezpečnosti. Než to vysvětlím, pojďme se nejprve podívat na to, co dělá generativní AI jedinečně zranitelnou.
Generativní umělá inteligence má schopnost zpracovat data celé společnosti nebo dokonce podmnožinu bohatou na znalosti do inteligentního modelu s dotazováním, který nabízí zcela nové nápady. To má obrovskou přitažlivost, ale také to pro podniky extrémně ztěžuje udržení kontroly nad svými vlastními daty a dodržování vyvíjejících se regulačních požadavků.
Ochrana školicích dat a modelů musí být nejvyšší prioritou; již nestačí šifrovat pole v databázích nebo řádky ve formuláři.
Tato koncentrace znalostí a následné generativní výsledky bez adekvátního zabezpečení dat a kontroly důvěry by mohly neúmyslně vyzbrojit generativní umělou inteligenci ke zneužití, krádeži a nezákonnému použití.
Zaměstnanci ve skutečnosti stále více vkládají do LLM důvěrné obchodní dokumenty, klientská data, zdrojový kód a další regulované informace. Vzhledem k tomu, že tyto modely jsou částečně vyškoleny na nové vstupy, mohlo by to v případě porušení vést k velkým únikům duševního vlastnictví. A pokud dojde ke kompromitaci samotných modelů, může uniknout i jakýkoli obsah, který je společnost ze zákona nebo smluvně povinna chránit. V nejhorším případě by krádež modelu a jeho dat umožnila konkurentovi nebo národnímu státnímu aktérovi vše duplikovat a tato data ukrást.
To jsou vysoké sázky. Gartner nedávno zjistil, že 41 % organizací zažilo narušení soukromí AI nebo bezpečnostní incident – a více než polovina je výsledkem kompromitace dat interní stranou. Nástup generativní umělé inteligence tato čísla nutně zvýší.
Podniky také musí držet krok s vyvíjejícími se předpisy na ochranu soukromí, když investují do generativní umělé inteligence. V různých odvětvích existuje hluboká odpovědnost a motivace k dodržování požadavků na data. Například ve zdravotnictví má personalizovaná medicína založená na umělé inteligenci obrovský potenciál, pokud jde o zlepšení výsledků pacientů a celkovou efektivitu. Poskytovatelé a výzkumní pracovníci však budou muset mít přístup k velkému množství citlivých údajů o pacientech a pracovat s nimi, a to při zachování souladu, což představuje nový problém.
K řešení těchto výzev a dalších, které nevyhnutelně vyvstanou, potřebuje generativní AI nový bezpečnostní základ. Ochrana školicích dat a modelů musí být nejvyšší prioritou; již nestačí šifrovat pole v databázích nebo řádky ve formuláři.
Ve scénářích, kde se pro důležitá rozhodnutí používají generativní výsledky umělé inteligence, bude důkaz integrity kódu a dat – a důvěry, kterou zprostředkovává – naprosto kritický, a to jak pro dodržování předpisů, tak pro potenciální řízení právní odpovědnosti. Musí existovat způsob, jak zajistit vzduchotěsnou ochranu celého výpočtu a stavu, ve kterém běží.
Nástup „důvěrné“ generativní umělé inteligence
Důvěrné počítání nabízí jednoduchou, ale nesmírně účinnou cestu z toho, co by se jinak zdálo být neřešitelným problémem. S důvěrnými výpočty jsou data a IP zcela izolovány od vlastníků infrastruktury a zpřístupněny pouze důvěryhodným aplikacím běžícím na důvěryhodných CPU. Soukromí dat je zajištěno pomocí šifrování, a to i během provádění.
Zabezpečení dat a soukromí se stávají neodmyslitelnými vlastnostmi cloud computingu – natolik, že i když zákeřný útočník naruší data infrastruktury, IP a kód jsou pro tohoto špatného aktéra zcela neviditelné. To je ideální pro generativní umělou inteligenci, která snižuje riziko jejího zabezpečení, soukromí a útoku.
Důvěrná výpočetní technika se stále více prosazuje jako bezpečnostní prvek, který mění hru. Investuje do něj každý velký poskytovatel cloudu a výrobce čipů, přičemž lídři v Azure, AWS a GCP prohlašují jeho účinnost. Nyní by stejná technologie, která převádí i ty nejstabilnější cloudové vychytávky, mohla být řešením, které pomáhá bezpečně rozjet generativní umělou inteligenci. Lídři jej musí začít brát vážně a chápat jeho hluboké dopady.
Díky důvěrným počítačům získávají podniky jistotu, že generativní modely umělé inteligence se učí pouze na datech, která hodlají použít, a na ničem jiném. Školení se soukromými datovými sadami v síti důvěryhodných zdrojů napříč cloudy poskytuje plnou kontrolu a klid. Všechny informace, ať už vstup nebo výstup, zůstávají zcela chráněny a za čtyřmi stěnami společnosti.