Při školeních o umělé inteligenci často zaznívá otázka, zda je bezpečné nahrávat do nástrojů typu ChatGPT osobní nebo citlivé údaje. Krátká odpověď zní: ne, není to vhodné – alespoň ne u běžných veřejně dostupných verzí.

Problém není jen „únik dat“

Veřejné AI nástroje fungují jako externí cloudová služba mimo vaši organizaci. Jakmile do nich vložíte:

  • osobní údaje (jména, adresy, rodná čísla),
  • interní dokumenty,
  • data o klientech nebo zaměstnancích,

ztrácíte plnou kontrolu nad tím, kde data končí, jak dlouho jsou uchována a kdo k nim má přístup. To je samozřejmě problém nejen z pohledu bezpečnosti, ale i GDPR a interních směrnic.

Evropská komise kdysi dávno (před 14 lety) publikovala video o obecném úniku dat a online soukromí. Nikdy nesdílejte to, co nechcete aby někdo další viděl.

Další rizika

  • Nejasné zpracování dat – u veřejných verzí není vždy možné garantovat, že data nebudou použita ke zlepšování modelů.
  • Lidský faktor – zaměstnanec může omylem vložit víc informací, než zamýšlel.
  • Chybějící audit a dohled – běžný uživatel nemá logy, řízení přístupů ani možnost vynutit mazání dat.

Jaké jsou bezpečnější alternativy

1. Firemní licence (Microsoft 365, Google Workspace)

Velcí poskytovatelé dnes integrují AI přímo do firemního prostředí:

Výhoda je tak nasnadě – AI je součástí ekosystému, který už firma kontroluje.

2. Řešení přímo od OpenAI

Chat GPT je pořád nejpopulárnější službou. OpenAI tak nabízí i varianty určené pro firmy:

  • ChatGPT Team / Enterprise
  • OpenAI API
    • vhodné pro vlastní interní aplikace,
    • plná kontrola nad tím, jaká data se odesílají,
    • možnost provozovat AI jako součást interního systému.

Používejte AI systematicky a bezpečně. Nikdy nevíte, kdo by jinak na druhé straně mohl poslouchat.