(ne)Bezpečnost AI modelů

29. 3. 2023. (redaktor: František Doupal, zdroj: Sophos)
V čem se liší nová generace jazykového modelu GPT-4 oproti GPT-3, zda lze obejít bezpečnostní mechanismy AI nebo zda jsou data z podnětů, které do modelu uživatelé zadávají, v bezpečí, jsme se zeptali Chestera Wisniewskiho, technického ředitele pro aplikovaný výzkum ve společnosti Sophos.
Chester Wisniewski, hlavní bezpečnostní poradce, Sophos

Co je nového v GPT-4 oproti GPT-3?

V GPT-4 se toho změnilo a zlepšilo hodně, ale ne o všem se ví. OpenAI si u této verze své platformy o něco víc než dřív zakrývá karty, takže ne všechna vylepšení jsou veřejně známá. Z obecného pohledu se model GPT-4 oproti předchozí verzi zdá být chytřejší, přesnější a více schopný toho, co bychom mohli považovat za „myšlení“. To by mělo znamenat, že jeho reakce budou ještě realističtější a kompetentnější než dříve. Je ale důležité si uvědomit, že i když vám bude lhát méně často, stále je to docela dobrý lhář.

Je zpřístupnění takového generativního předtrénovaného modelu veřejnosti etickou aplikací umělé inteligence, když ji mají k dispozici jak ti zlí, tak ti hodní?

Technologický pokrok je jako džin v láhvi. Když vám začne být nepohodlný, nemůžete se ho už zbavit. Dostupnost nástrojů, jako je ChatGPT, s ochrannými opatřeními, která se OpenAI pokusila prosadit, pravděpodobně nezpůsobí více škody než užitku. I když je zneužití umělé inteligence ke kriminálním účelům nevyhnutelné, to dobré, co může z odpovědného používání těchto nástrojů vzejít, pravděpodobně značně převáží nad případným zneužitím.

Vypadá to, že už máme řadu příkladů, kdy prompt engineering porušuje ochranné mechanismy systému, a existuje přinejmenším jeden příklad útoku typu „indirect prompt injection“. Myslíte si, že bude někdy možné vytvořit model GPT, který nebude možné zneužít?

Ne. Ale asi byste rádi slyšeli podrobnější odpověď. Pravda je taková, že jakýkoli systém, který má zabránit zneužití, ale současně je navržen tak, aby fungoval zdánlivě autonomně, bude s největší pravděpodobností vždy možné obejít. Jakmile se OpenAI a další výzkumníci v oblasti umělé inteligence dozvědí více o tom, jak lidé překonávají jejich ochrany, bude to stále složitější. Dnes může každý školák trochu zapátrat a naučit se to. Doufám a očekávám, že v budoucnu to bude vyžadovat podstatně více dovedností, ale stále to bude možné.

Vytváří ChatGPT něco nového, nebo jen přeskupuje to, co mu bylo řečeno? Pokud je to druhá z možností, nepředstavuje pouze existující znalosti? – což by bylo v pořádku, pokud by tyto znalosti byly pravdivé. Ale (1) neomezuje to lidskou schopnost originálního myšlení a (2) co když se model naučil nebo byl naučen nepřesnostem?

Jediné, co může nový ChatGPT vytvořit, jsou lži. Je to docela přesvědčivý lhář, který se vyrovná těm nejlepším narcistům, které jsem potkal. Model byl jistě naučen věcem, které nejsou pravdivé, a je téměř nemožné předvídat, kdy tyto faktické nepřesnosti vnese do svých odpovědí. Opravdu ale nevím, jak to ovlivní lidské myšlenky. Vždy budeme mít výhodu kreativity a vědomé volby, kdy budeme klamat.

Nejlepší modely umělé inteligence patří velkým technologickým společnostem. Osobní a firemní důvěrné údaje obsažené v podnětech sice nemusí skončit v modelu, ale technologické společnosti, jako vlastníci těchto technologií, je jistě budou mít k dispozici. A velcí vlastníci technologií mají často obchodní model postavený na prodeji těchto dat tomu, kdo nabídne nejvíc. Jak tedy přistupovat k aspektům soukromí u veřejně dostupných modelů umělé inteligence ve stylu GPT?

Dnes je pravděpodobně pro většinu uživatelů systémů umělé inteligence obtížné se tomu vyhnout, a musíme věřit slibům a licenčním smlouvám, které jsme odsouhlasili, že budou naše přání respektována. Mnohé z těchto modelů se ale stávají neuvěřitelně efektivními, takže není důvod, proč by je v budoucnu nebylo možné provozovat na našich počítačích a noteboocích nebo dokonce v telefonech. Trénování modelů je výpočetně náročné, ale jejich provozování nikoli. Možná se dočkáme toho, že starší modely budou k dispozici jako open-source nebo budou dokonce crowdsourcovány, aby byly k dispozici všem, kdo je chtějí používat. Ty nejmodernější pravděpodobně zůstanou v rukou velkých technologických firem, ale modely, které jsou více než „dostatečně dobré“, by mohly běžet na iPhonu ve vaší kapse, pokud si to budete přát.

Štítky: 

Podobné články

Globální výdaje koncových uživatelů na modely GenAI letos dosáhnou 14,2 miliardy USD

28. 7. 2025. (redaktor: František Doupal, zdroj: Gartner)
Celosvětové výdaje koncových uživatelů na generativní modely AI (GenAI) v roce 2025 podle Gartneru letos vyšplhají na 14,2 miliardy dolarů. Výdaje na specializované modely GenAI, specifické pro konkrétní oblasti, letos dosáhnou 1,1 miliardy dolarů. Čtěte více
Martina Vlčková, CCO v SWS

Martina Vlčková (ALSO/SWS): Naše nabídka se výrazně rozšířila

2. 7. 2025. (redaktor: František Doupal, zdroj: DCD Publishing a ALSO/SWS)
S Martinou Vlčkovou, CCO v SWS, jsme při příležitosti letošního ALSO Cloud Summitu v Hradci Králové hovořili o aktuálním dění v této společnosti. Z rozhovoru se třeba dozvíte, jak se firmě aktuálně daří, jaké má plány do budoucna, kam by se chtěla posouvat a jak by se chtěla profilovat směrem k resellerům. Čtěte více
Ředitel společnosti Konecta pro Českou republiku Jan Nedělník

Konecta: Globální hráč s technologickým přesahem

4. 6. 2025. (redaktor: Reseller Magazine OnLine, zdroj: Konecta )
Jak dnes vypadá moderní outsourcing zákaznické péče? O proměnách oboru, přínosech automatizace i výzvách více uvedl ředitel společnosti Konecta pro Českou republiku Jan Nedělník. Čtěte více

Celosvětové výdaje na GenAI letos dosáhnou 644 miliard dolarů

7. 4. 2025. (redaktor: František Doupal, zdroj: Gartner)
IT ředitelé musí v roce 2025 počítat s rostoucími výdaji na GenAI, které budou podpořeny lepšími základními modely i všeobecně rostoucí poptávkou po produktech AI. Čtěte více