Trump zakazuje „woke AI“ vo federálnych systémoch. Modely musia byť neutrálne a pravdivé podľa nových nariadení.
Donald Trump podpísal 23. júla 2025 výkonný príkaz s názvom „Preventing Woke AI in the Federal Government“, ktorého cieľom je obmedziť používanie tzv. „woke“ alebo ideologicky zaujatých AI modelov vo federálnych agentúrach USA. Tento krok je súčasťou širšej agendy Trumpovej administratívy v oblasti umelej inteligencie a technologickej suverenity.
Kontext a motivácia
Trumpova exekutíva reaguje na rastúce obavy z toho, že súčasné LLM (large language models), ako sú ChatGPT alebo Gemini, vykazujú ideologické skreslenia v odpovediach – najmä v témach ako rasa, pohlavie, diverzita či LGBTQ+ otázky.
Príkaz preto stanovuje rámec, ktorý má zabezpečiť, že AI systémy používané vo verejnej správe budú „pravdivé“ a „ideologicky neutrálne“. Hlavne podľa tvrdení trumpovej administratívy.
Tento krok má podľa administratívy zabrániť tomu, aby sa do výstupov AI dostávali ideológie ako kritická rasová teória, intersectionality, transgender aktivizmus, alebo DEI (diversity, equity, inclusion).
Technické požiadavky na AI modely
Príkaz explicitne stanovuje dve kľúčové vlastnosti, ktoré musia federálne využívané AI systémy spĺňať:
- Truth-Seeking – AI modely musia poskytovať výstupy na základe overených a spoľahlivých faktov, odlišovať medzi istotou a hypotézou, a zohľadňovať širší vedecký a historický kontext.
- Ideological Neutrality – Modely nesmú propagovať žiadnu politickú, filozofickú alebo ideologickú agendu. Výstup má byť neutrálne formulovaný, ak si používateľ výslovne nevyžiada inak.
Implementačný mechanizmus
Príkaz ukladá Úradu pre rozpočet a správu (OMB) v spolupráci s Úradom pre vedu a technológie (OSTP) a Všeobecnou službou (GSA), aby do 120 dní vypracovali technické usmernenie pre všetky federálne agentúry. Toto usmernenie musí definovať:
- kritériá hodnotenia zmluvných dodávateľov LLM,
- požiadavky na testovanie AI modelov pred nasadením,
- mechanizmy na kontrolu dodržiavania neutrality,
- sankcie za neplnenie, vrátane možnosti ukončenia zmluvy.
Jediný zoznam: Dopady na technologický sektor
Dodávatelia AI riešení, ako OpenAI, Google, Anthropic, xAI, budú musieť prispôsobiť svoje modely federálnym požiadavkám, ak chcú participovať na verejných zákazkách.
OpenAI uviedla, že už teraz aplikuje mechanizmy „rovnováhy v odpovediach“, no analýza príkazu naznačuje, že definícia neutrality bude podrobnejšia a technicky overiteľná.
Menší vývojári a akademické projekty môžu mať problémy s dodržaním formálnych požiadaviek na auditovateľnosť modelov.
Open-source AI modely, ktoré neprešli hodnotením podľa federálnych štandardov, budú pravdepodobne vylúčené z verejných výberových konaní.
Kritika a nejasnosti
Odborníci upozorňujú na problematickosť technickej definície „ideologickej neutrality“, keďže modely trénované na verejne dostupných textoch budú vždy niesť určitý bias. Rovnako nie je jasné, ako sa bude objektívne testovať „pravdivosť“ výstupov vo filozofických alebo morálnych otázkach.
Niektorí vedci porovnávajú tento prístup s vládnou cenzúrou – aj keď tu nejde o blokovanie obsahu, ale o jeho filtrovanie v prospech jedného ideologického rámca.
Záver
Trumpov výkonný príkaz zavádza nový štandard pre AI modely používané vo verejnej správe. Technologické firmy budú nútené reagovať, ak chcú pokračovať v spolupráci s federálnymi inštitúciami.
Kým zástancovia vidia v kroku posilnenie objektivity, kritici upozorňujú na hrozbu ideologického zásahu zhora, ktorý môže obmedziť slobodu vývoja a výskumu v oblasti AI.
Zdroj: Zdroj 1
Zanechajte komentár