NBÚ varuje pred čínskym modelom DeepSeek
Národný bezpečnostný úrad vydal varovanie pred čínskym modelom DeepSeek. Varovanie sa však opiera len o podmienky služby.

Úrad na svojom webe vydal varovanie pred čínskym modelom DeepSeek, ktorému sa v poslednom týždni dostalo veľkej pozornosti. Najprv sa DeepSeek pochválil lepšími výsledkami ako konkurenčné AI s výrazne nižšími nižšie náklady. Potom sa dokonca aplikácia stala jednotkou na americkom App Store.
Lenže s príchodom novej AI sa objavili aj obavy a tiež prvé obvinenia zo strany konkurencie. Aj v našom teste vyšlo, že o niektorých pre Čínu háklivých témach sa model nechce baviť. Otázne je tiež, kde končia údaje užívateľov a tiež to ako ich DeepSeek využíva. Obavy tiež panujú z toho, že na chod AI využíva DeepSeek procesory od čínskej firmy Huawei.
NBÚ varuje
Na DeepSeek sa už pozrel aj Národný bezpečnostný úrad. Národný bezpečnostný úrad (NBÚ) vydal upozornenie týkajúce sa používania modelov umelej inteligencie (AI), ktoré sú schopné generovať text na základe zadaných vstupov.
Toto upozornenie je reakciou na rastúcu popularitu a dostupnosť takýchto AI nástrojov, ktoré sú často využívané na rôzne účely, vrátane tvorby obsahu, automatizácie komunikácie či analýzy dát. NBÚ však varuje len pred čínskym modelom DeepSeek R1.
“Národný bezpečnostný úrad upozorňuje, že DeepSeek zbiera od používateľov dáta v oveľa väčšom rozsahu ako konkurencia. Dáta zahŕňajú dokonca presné časovanie stlačení jednotlivých klávesov, zadané pokyny (prompty), heslá, vkladané obrázky, audio súbory, dokumenty, ale aj IP adresu počítača, z ktorého je služba DeepSeek využívaná, systémový jazyk a podobne. Informácie sú následne ukladané na servery v Číne,” uvádza NBÚ vo svojej správe.
Otázne sú dáta a ich použitie
NBÚ sa teda obáva zneužitia nazbieraných osobných údajov. DeepSeek ich podľa NBÚ zbiera oveľa viac ako konkurenčné AI. NBÚ však v tomto prípade zrejme vychádza len z informácií, ktoré obsahujú podmienky služby. To však automaticky neznamená, že tieto údaje DeepSeek aj zbiera, ukladá a nejako s nimi pracuje.
“Na základe porovnania pravidiel ochrany súkromia DeepSeek a OpenAI, zbiera čínsky model viac dát, ako americký OpenAI. Rozdiel je aj v tom, kde sa dáta ukladajú. V EÚ, v ktorej OpenAI deklaruje súlad s GDPR, máme robustný systém na ukladanie a ochranu dát pred ich zneužitím. Tento koncept v Číne chýba. Naopak, súkromné dáta sú tam aktívne využívané pre potreby komunistickej strany (štátu),” uvádza v správe NBÚ.
DeepSeeku by ste mali na základe varovania NBÚ radšej vyhnúť. Pravdou je, že nevieme ako presne DeepSeek nakladá s dátami a ako ich využíva. Nevieme ani to, či k dátam nemá prístup čínska vláda. Rovnako netreba zabúdať na cenzúru. DeepSeek bude možno skvelým nástrojom, ale pre mnohé obmedzenia skôr doma v Číne ako vo svete. ChatGPT aj Gemini cenzurujú odpovede, ale iba pre nevhodné otázky. DeepSeek cenzuruje aj legitímne otázky.
Riziká spojené s používaním AI modelov
Nie je to však len o DeepSeeku. Umelú inteligenciu by ste mali využívať rozumne, pretože o vás vždy zbiera údaje podobne ako iné služby. DeepSeek však monimálne v podmienkach uvádza oveľa širší rozsah dát, ktoré o používateľoch zbiera.
- Bezpečnostné hrozby: AI modely môžu byť zneužité na šírenie dezinformácií, vytváranie falošných správ alebo generovanie škodlivého obsahu. Takéto aktivity môžu ohroziť informačnú bezpečnosť.
- Ochrana osobných údajov: Pri používaní AI nástrojov je potrebné dbať na ochranu osobných údajov. Nevhodné zaobchádzanie s citlivými informáciami môže viesť k ich úniku alebo zneužitiu, čo predstavuje riziko pre súkromie jednotlivcov.
- Etické otázky: Generovanie obsahu pomocou AI môže viesť k vytváraniu textov, ktoré sú neetické, urážlivé alebo diskriminačné. Je dôležité zabezpečiť, aby AI modely boli navrhnuté a používané s ohľadom na etické normy a spoločenské hodnoty.
A hlavne netreba zabúdať, že AI nie je bezchybná. Je bežné, že AI si občas vymyslí údaje a popletie fakty. Akýkoľvek obsah generovaný pomocou AI by ste mali vždy kontrolovať a nepovažovať ho automaticky za správny. Je to ako pri vyhľadávaní pomocou Google, aj ten vám zobrazí rôzne zdroje. Je potom len na vás, ktorý si vyberiete ako ten relevantný zdroj informácií.
“DeepSeek model aktívne cenzuruje informácie citlivé pre čínsky režim. Ak chcete napríklad od čínskeho jazykového modelu získať informáciu o protestoch na Námestí Tchien-an-men v roku 1989, pri ktorého potlačení režim zavraždil stovky občanov, četbot odmietne zobraziť odpoveď,” varuje v správe NBÚ.
V slovenčine však model DeepSeek R1 poskytne odpovede aj na udalosti, ktoré sa odohrali v roku 1989. Vtedy dostanete odpoveď a dokonca sa môžete AI opýtať aj na počty obetí, ktoré si zásah čínskej vlády vyžiadal.


Pokiaľ však zameníte názov “Námestie nebeského mieru” za oficiálny názov už sa s vami DeepSeek baviť nebude. A to je problém. Cenzúra je v Číne bežná, západné jazykové modely však cenzurujú len nebezpečný obsah.

Bezpečné používanie AI
Každú AI by ste mali používať rozumne a hlavne bezpečne. Zvažujte aké údaje AI poskytnete. Všetky AI ( a nie len DeepSeek) majú prístup ku všetkým obrázkom a súborom, ktoré službe poskytnete. Väčšinou ich potom môže služba využívať na trénovanie.
Najmä vo firemnom prostredí by ste mali dbať na:
- Dôkladné hodnotenie rizík: Pred nasadením AI nástrojov je nevyhnutné vykonať podrobnú analýzu potenciálnych rizík a prijať opatrenia na ich minimalizáciu.
- Školenie a informovanosť: Zabezpečiť, aby všetci používatelia AI systémov boli riadne vyškolení a oboznámení s možnými hrozbami a spôsobmi ich prevencie.
- Monitorovanie a audit: Pravidelne sledovať činnosť AI modelov a vykonávať audity ich výstupov, aby sa zabezpečila ich správnosť a bezpečnosť.
- Spolupráca s odborníkmi: Konzultovať implementáciu a používanie AI nástrojov s odborníkmi na kybernetickú bezpečnosť a etiku, aby sa predišlo možným negatívnym dôsledkom.