Než něco vložíte do AI: průvodce bezpečností dat při používání umělé inteligence

9. 4. 2026

Redakce digivia

Organizace Tyfloservis pomáhá lidem s postižením zraku.

Zdroj: Gemini / Nano Banana

Generativní umělá inteligence působí trochu jako nový kolega, který nastoupil teprve včera a dnes už se zdá, že zvládne všechno. Je rychlá, pohotová, mluví sebejistě a ochotně se pustí skoro do čehokoli. To ale ještě neznamená, že má vždycky pravdu. A už vůbec to neznamená, že je bezpečné svěřit jí všechny informace, co máme po ruce.

Když se mluví o rizicích AI, nejčastěji přijde řeč na to, že si občas vymýšlí nebo plete fakta. To je reálný problém. Existuje však ještě jeden, méně nápadný: text, který od AI dostanete, může být úplně v pořádku. Potíž může být v tom, jaká data jste do nástroje vložili a co se s nimi děje dál.

Pro neziskové organizace je to důležité dvojnásob. Pracujeme s informacemi o lidech, kteří jsou často ve zranitelné situaci. Řešíme finance, vztahy s dárci, personální záležitosti, bezpečnostní incidenty, interní konflikty, někdy i zdravotní nebo sociální témata. Tedy přesně takové věci, které by se neměly jen tak mimochodem stát součástí konverzace v nahodilém online nástroji, nad kterým nemáme plnou kontrolu.

Smyslem tohoto článku není od používání umělé inteligence odrazovat. Cílem je pomoct vám nastavit si pravidla při používání umělé inteligence tak, aby byla v první řadě bezpečná. Určitě chceme využívat výhody, které AI přináší – rychlost, pomoc s formulacemi, návrhy, inspiraci. Je však dobré si pohlídat pár věcí, abyste za tyto výhody neplatili zbytečně vysokou cenu.

Nenápadný návyk jako prevence velkých problémů

Když se někdo ve vašem týmu zeptá Můžeme na to použít AI?, zkuste si položit tři jednoduché otázky:

  1. Když tyto informace uniknou, komu to uškodí? Může to poškodit klienta nebo klientku? Kolegu? Partnera? Dárce? Reputaci organizace?
  2. Když bude odpověď umělé inteligence chybná, komu to uškodí? Nepřesně nebo chybně napsaný příspěvek na sociální sítě možná bude působit trochu trapně. Špatně shrnutý případ, nepřesné doporučení nebo zkreslený podklad pro rozhodnutí už je mnohem vážnější problém, který může poškodit pověst organizace i samotné její fungování.
  3. Dokážeme si správnost výsledku rozumně ověřit? Pokud bude kontrola vyžadovat hodiny práce, právní posouzení nebo hlubokou znalost tématu, je to signál, že použití nebude úplně bezpečné.

Tyto otázky vás přepnou z režimu „jak si ušetřit čas“ do režimu „jaké to může mít důsledky“. A právě tato změna v našem přemýšlení je podstatná.

Ne někdy prostě znamená nejbezpečnější odpověď

Umělá inteligence je výborná na vytváření návrhů textů, zjednodušování složitých studií, přepisování nebo rešerše. Odpovědnost za důsledky ale nepřevezme. Ty zůstávají na člověku, potažmo na organizaci.

Mnoho týmů se domnívá, že stačí si výstupy z AI vždy ověřovat. To je užitečný návyk, neřeší ale všechno. Jestliže do nástroje vložíte osobní nebo jinak důvěrná data, riziko se neobjevuje s výstupem. Vzniká mnohem dřív – už samotným zadáním těchto údajů. Pak není podstatné jen to, zda odpověď byla správná, ale hlavně to, že systém dostal informace, které jste mu možná vůbec neměli předávat.

Na první pohled neškodné úkoly bývají v praxi nejzrádnější

Mnoho lidí má pocit, že rizikové je jen to, co je citlivé na první pohled. Jenže v reálném provozu organizace se citlivé informace objevují i v úkolech, které vypadají naprosto nevinně. Typickým příkladem je zdánlivě banální shrnutí porady. Vypadá neškodně. Jenže v zápisu z porady mohou být jména, informace o platech, údaje o zdravotním stavu nebo detaily týkající se klientů a klientek. Podobně je to s překladem e-mailu. I když v něm není uvedeno celé jméno, mohou v něm být takové souvislosti, že člověka, kterého se e-mail týká, není problém identifikovat.

Rizik při používání AI je několik

Když se řeší bezpečnost dat u AI, často ás zajímá pouze to, jestli nástroj používá vložená data k dalšímu trénování modelu. To je důležitá otázka, ale zdaleka ne jediná. Ve hře jsou i další vrstvy rizika.

  1. Využití dat pro další trénování modelu
    U řady pracovních a firemních variant dnes dodavatelé uvádějí, že data zákazníků se k trénování standardně nepoužívají. To je dobrá zpráva, ale sama o sobě nestačí.
  2. Uchovávání dat a provozní záznamy
    I když se na vašich datech model neučí, neznamená to, že se nikde neukládají. Mohou se uchovávat kvůli bezpečnosti, technickému provozu, podpoře nebo právním povinnostem.
  3. Kdo všechno se k datům může dostat kvůli nastavení a funkcím služby
    Sdílené odkazy, administrátorské nástroje, propojení s dalšími aplikacemi, doplňky nebo automatizovaní agenti – to všechno vytváří další cesty, kudy se informace mohou dostat dál.

Vědět, jestli se model učí z našich dat, nestačí. Neméně důležité je i to, jak dlouho data zůstávají uložená a kdo všechno se k nim může dostat.

Rozdíl mezi bezplatnou, osobní placenou a firemní verzí je zásadní

Možná i vy máte pocit, že placené nástroje musí být automaticky bezpečné. Jenže tak jednoduché to není.

Bezplatné nebo spotřebitelské tarify se obvykle hodí jen pro práci s neškodným obsahem, který neobsahuje osobní ani důvěrné údaje. Zpravidla nabízejí omezené možnosti správy i malý přehled nad tím, co kdo sdílí.

Placené osobní tarify bývají lepší hlavně v rychlosti modelu, počtech funkcí a v neomezených limitech. To ale ještě neznamená, že jsou vhodné pro práci s daty organizace. Měsíční předplatné samo o sobě nepřinese lepší smluvní ochranu, správu přístupů ani vyšší soulad s pravidly ochrany dat.

Týmové nebo firemní tarify – tady už dává smysl bavit se o seriózním použití v organizaci. Nabízí lepší smluvní podmínky, správu přístupů, administraci, auditní možnosti a často i výchozí nastavení, která jsou k ochraně dat vstřícnější. Ani v tomto případě ale neplatí, že když máte „business“ nebo „enterprise“ licenci, můžete do nástroje bez přemýšlení vložit cokoli. Pokud organizace nemá pravidla, co do nástroje smí a nesmí, kdo má k výstupům přístup a jak dlouho mají záznamy zůstávat uložené, problémy na sebe nenechají čekat dlouho.

Představte si třeba situaci, kdy pracovník vloží do soukromého chatu v pracovním AI nástroji citlivé poznámky o konkrétním případu klienta v sociální službě. Nikam je nesdílí, nic do hlubin internetu neunikne. Jenže za pár měsíců jsou tyto informace stále dohledatelné v historii, někdo je použije při předávání agendy nebo se část shrnutí dostane do materiálu, který už má mnohem širší okruh čtenářů. Nejde tedy nutně o velký bezpečnostní průšvih navenek. Citlivá data o klientovi, která se mají dostat jen k oprávněným osobám (např. kvůli mlčenlivosti a pravidlům ochrany osobních údajů), jsou však najednou k dispozici širšímu okruhu lidí v organizaci. V ještě horším případě se můžou stát součástí veřejného dokumentu.

Kdy vůbec uvažovat o tom, že osobní údaje do AI vložíte

Budeme upřímní: pokud pracujete s osobními údaji, neměla by AI být první volba JEN proto, že šetří čas. Pokud text neobsahuje osobní údaje, ale je důvěrný – například jde o interní strategii, finance nebo bezpečnostní informace – můžete AI využít, ale ideálně jen ve schváleném nástroji vaší organizace.

Pokud text osobní údaje obsahuje, použijte AI jen ve chvíli, kdy máte v organizaci schválený nástroj a definovaný způsob a pravidla pro tento typ dat. Typicky tedy firemní variantu se smluvním ošetřením, jasně nastavenými přístupy a vnitřními pravidly. Pokud nic takového organizace nemá, dejte od AI raději ruce pryč.

A co zvlášť citlivé oblasti jako jsou údaje o dětech, zdravotní stav, sociální situace, bezpečí klientů nebo ochrana zranitelných osob? Tady laťka leží ještě o něco výš. Chcete-li pro práci s takovými daty používat umělou inteligenci, musí existovat skutečně promyšlený důvod, vhodný nástroj, odpovídající smluvní a technické nastavení a dobrá vnitřní pravidla.

Které AI nástroje přicházejí v úvahu

Je důležité zmínit, že soulad s GDPR není funkce, kterou si zapnete v nastavení. Neexistuje nic jako „GDPR tlačítko“. Vždy záleží na kombinaci nástroje, smlouvy, způsobu použití a pravidel uvnitř organizace. Přesto existují nástroje a varianty, které jsou pro práci organizací vhodnější než běžné spotřebitelské chatboty. To ale neznamená, že všechny jsou automaticky „v souladu s GDPR“ za všech okolností. Znamená to jen, že mohou být použitelné pro organizaci, pokud jsou správně nasazené, spravované a používají se s rozumem.

Zároveň však platí jedna praktická hranice, kterou se vyplatí brát jako „stopku“: pokud si u daného nástroje nejste schopní smluvně ošetřit zpracování osobních údajů (typicky podmínky pro dodavatele jako zpracovatele podle čl. 28 GDPR / DPA, kde je jasné, co se s daty děje, jak dlouho se uchovávají, kdo k nim má přístup a jak jsou chráněná), pak do něj osobní údaje nevkládejte. V takové situaci totiž jako organizace obvykle nemáte splněné základní předpoklady pro legální zpracování (zejména odpovědnosti a záruky vůči subjektům údajů) a snadno se dostanete do rozporu s GDPR.

Platí tady jednoduché doporučení: pro práci v organizaci vybírejte jen takové „team/business/enterprise“ varianty, které umožňují uzavřít potřebné smlouvy (např. DPA), nastavit správcovství a přístupy, mít přehled o tom, co se ukládá, a ideálně i centrálně řídit používání v týmu. Spotřebitelské nebo „osobní“ tarify k tomu určené nejsou.

Skrytá past: propojení s dalšími systémy

Ve chvíli, kdy AI nástroj propojíte s e-mailem, cloudovým úložištěm, dokumenty, Teamsy nebo SharePointem, se situace mění. Už nejde jen o informace, která někdo ručně zadá do okna chatu. Najednou řešíte i to, k čemu se nástroj dostane sám, co si umí vytáhnout a co může zobrazit. A právě tady může být kámen úrazu. Pokud má organizace nepořádek v oprávněních a přístupech, AI to nezachrání. Naopak může ten nepořádek velmi rychle zviditelnit.

Další riziko představují skryté instrukce uvnitř dokumentů nebo webových stránek, tzn. prompt injection. Nástroj pak může začít reagovat na něco, co mělo být jen obsahem ke zpracování, ne pokynem k akci.

Bez pravidel to dlouhodobě fungovat nebude

Jestli chcete, aby ve vaší organizaci používali AI spolehlivě i ti, kteří téma bezpečnosti neřeší každý den, potřebujete jednoduchá a srozumitelná pravidla. Nemusí jít o složitý padesátistránkový dokument, kterému porozumí jen právní oddělení. Mnohem užitečnější je stručný a přehledný návod, který vysvětluje:

  • jaké nástroje jsou schválené,
  • s jakými typy údajů se v nich smí a nesmí pracovat,
  • kdy je potřeba údaje anonymizovat nebo upravit,
  • kdy je nutná kontrola člověkem,
  • jak přistupovat k propojování s další systémy a aplikacemi,
  • a co dělat ve chvíli, kdy někdo do nástroje vložil něco, co tam být nemělo.

Právě taková pravidla dělají z nahodilého používání AI něco, co je dlouhodobě udržitelné.

Bezpečné používání AI stojí na bezpečných návycích

Umělá inteligence umí být pro neziskové organizace opravdu užitečná. Může urychlit práci s texty, pomoct s formulacemi, podpořit brainstorming a ušetřit čas tam, kde není potřeba vymýšlet všechno od nuly. Pořád ale platí jedno: důsledky nenese nástroj. Nese je organizace. Bezpečné používání AI nestojí na propracovaných promptech ani na dražším tarifu. Stojí především na bezpečných návycích: sdílet jen to, co je opravdu potřeba, používat vhodný nástroj, hlídat přístupy, ověřovat důležité výstupy a mít jasně popsaná pravidla.

A pokud si nejste jistí, držte se jednoduché zásady: bezpečnější je informace do nástroje vůbec nevkládat, nebo je předem upravit tak, aby přestaly být citlivé. Z umělé inteligence bezpečný nástroj pro práci s citlivými údaji sami od sebe nevykouzlíte.

🟪