Hľadať
Notifikácie 📣

Chceš dostávať čerstvé novinky?

Sledujte nás
Nastavenia súkromia

Takto chránime tvoje údaje - GDPR

domov videá

Etika vs. Armáda: Pentagón zaradil Anthropic na čiernu listinu uprostred vojny

Biely dom urobil nevídaný krok a označil domácu AI spoločnosť Anthropic za bezpečnostné riziko. Spor o kontrolu nad autonómnymi zbraňami a sledovaním občanov vyústil do vyradenia chatbota Claude z vládnych zákaziek, zatiaľ čo konkurenčná OpenAI okamžite zapĺňa vzniknuté vákuum.

06.03.2026 13:40
debata (2)

Rozhodnutie Trumpovej administratívy zaradiť technologickú spoločnosť Anthropic na zoznam rizík pre dodávateľský reťazec predstavuje bezprecedentný zlom vo vzťahu medzi americkou vládou a domácim sektorom umelej inteligencie. Pentagón vo svojom oficiálnom štvrtkovom vyhlásení s okamžitou platnosťou informoval vedenie firmy, že jej produkty, vrátane populárneho chatbota Claude, sú považované za bezpečnostnú hrozbu. Tento krok fakticky znemožňuje vládnym dodávateľom využívať technológie Anthropicu pri prácach pre armádu, čo už potvrdili aj giganti ako Lockheed Martin, ktorí sa začali orientovať na iných poskytovateľov.

Spoločnosť Anthropic patrí v súčasnosti medzi najvýznamnejších hráčov na poli umelej inteligencie. Často je vnímaná ako „etický náprotivok“ k OpenAI, čo vyplýva priamo z histórie jej vzniku a filozofie, ktorou sa riadi. Anthropic založili v roku 2021 súrodenci Dario a Daniela Amodeiovci, ktorí predtým pôsobili na vysokých pozíciách v OpenAI. Dôvodom ich odchodu boli názorové rozdiely ohľadom smerovania vývoja AI. Amodeiovci a skupina ďalších vedcov mali obavy, že OpenAI sa pod tlakom investícií od Microsoftu príliš rýchlo komercializuje a zanedbáva bezpečnostné aspekty vývoja smerom k všeobecnej umelej inteligencii (AGI).

Claude: Vlajková loď – Hlavným produktom firmy je rodina modelov s názvom Claude. Aktuálne verzie (ako Claude 3.5 Sonnet) sú považované za priamu konkurenciu pre GPT-4o od OpenAI alebo Gemini od Google.

  • Schopnosti: Claude vyniká v písaní textov, programovaní a analýze dlhých dokumentov (má obrovské tzv. kontextové okno, vďaka čomu „prečíta“ celú knihu naraz).
  • Charakter: Používatelia často hodnotia odpovede Claudea ako ľudskejšie a menej robotické v porovnaní s konkurenciou.

Konštitučná umelá inteligencia (Constitutional AI) – Toto je unikátny technický prístup, ktorým sa Anthropic odlišuje. Namiesto toho, aby sa model učil, čo je správne, len na základe tisícok hodnotení od ľudí (ktoré môžu byť subjektívne), Anthropic dal modelu „ústavu“ (súbor etických princípov).

  • Model pri tréningu sám kontroluje svoje odpovede a upravuje ich tak, aby boli v súlade s touto ústavou.
  • Cieľom je vytvoriť AI, ktorá je nielen výkonná, ale aj bezpečná, čestná a neškodná.

Strategické partnerstvá a investície – Hoci Anthropic začínal ako malý startup, dnes má hodnotu desiatok miliárd dolárov. Medzi jeho najväčších investorov patria technologickí giganti:

  • Amazon: Investoval miliardy dolárov a Anthropic využíva cloudovú infraštruktúru AWS.
  • Google: Takisto patrí medzi kľúčových investorov, hoci vyvíja vlastnú AI (Gemini).

Zhrnutie: Anthropic sa profiluje ako firma, pre ktorú je bezpečnosť prioritou pred rýchlosťou. Ich cieľom je vyvinúť systémy, ktoré budú spoľahlivými partnermi pre ľudstvo, a nie nekontrolovateľnými nástrojmi moci.

Centrálny mozog ľudstva - obrázok vytvorený AI Čítajte viac Pentagón prechádza na režim „AI-first“, aby urýchlil dominanciu USA v boji

Korene tohto ostrého konfliktu siahajú k zásadnému etickému sporu o mieru kontroly nad umelou inteligenciou na bojisku. Generálny riaditeľ Anthropicu Dario Amodei odmietol požiadavky Pentagónu na odstránenie bezpečnostných poistiek, ktoré bránia zneužitiu ich modelov na masové sledovanie amerických občanov alebo na riadenie plne autonómnych zbraní. Pre Pentagón a ministra obrany Petea Hegsetha však tieto obmedzenia predstavujú neprípustné zasahovanie súkromnej firmy do vojenského reťazca velenia. Podľa armádnych špičiek musí mať vojsko možnosť využívať kritické technológie na všetky zákonné účely bez toho, aby mu externý predajca diktoval hranice ich operačného nasadenia.

Spoločnosť Anthropic v spore s Pentagónom presadzuje dve hlavné „červené čiary“, ktoré odmieta prekročiť aj pod hrozbou straty vládnych zákaziek. Podľa vyjadrení CEO Daria Amodeiho a zverejnených správ z marca 2026 ide o tieto konkrétne poistky:

  • Zákaz masového domáceho sledovania (Mass Surveillance) – Anthropic odmieta, aby bol ich model Claude používaný na automatizované sledovanie občanov USA.
  • Dôvod: Spoločnosť argumentuje, že súčasné zákony sú pozadu oproti schopnostiam AI. Umelá inteligencia dokáže spojiť nesúvisiace dáta (poloha, história prehliadania, finančné záznamy) do detailného obrazu o živote kohokoľvek, čo považujú za nezlučiteľné s demokratickými hodnotami.
  • Rozsah: Anthropic podporuje využitie AI pre zákonnú zahraničnú rozviedku, ale bráni jej zneužitiu na plošné sledovanie Američanov bez súdneho príkazu.

Zákaz plne autonómnych zbraní (Lethal Autonomy) – Spoločnosť striktne vyžaduje, aby pri rozhodovaní o použití smrtiacej sily vždy zostal človek v rozhodovacom reťazci (human-in-the-loop).

  • Dôvod: Anthropic tvrdí, že súčasné modely sú stále príliš nespoľahlivé a krehké na to, aby im bolo zverené autonómne rozhodovanie o živote a smrti.
  • Obavy z eskalácie: Interné simulácie vojnových hier údajne ukázali, že pokročilé AI modely (vrátane Claude či GPT-5) majú tendenciu v simulovaných konfliktoch rýchlo eskalovať situáciu až k použitiu jadrových zbraní.

Obmedzenia v simuláciách a operačnom plánovaní – Hoci bol Claude integrovaný do vojenských systémov (napríklad cez Palantir), Anthropic si vyhradzuje právo, aby model mohol „odmietnuť“ požiadavky, ktoré by priamo viedli k porušeniu vyššie uvedených etických zásad.

Kybernetický útok - obrázok vytvorený AI Čítajte viac Chatbot od Anthropic bol údajne zneužitý na kybernetické útoky

Napätie vyvrcholilo v kritickom čase, len krátko pred vypuknutím vojny v Iráne, kedy sa otázka efektívneho nasadenia AI stala pre administratívu prioritou národnej bezpečnosti. Zatiaľ čo Anthropic argumentuje, že ich bezpečnostné výnimky sa týkajú len vysokej úrovne rozhodovania a nie bežných operácií, Pentagón vníma ich postoj ako priame ohrozenie bojaschopnosti. Do sporu navyše dramaticky vstúpila konkurenčná spoločnosť OpenAI, ktorá využila oslabenie svojho rivala a uzavrela s Pentagónom dohodu o nahradení Anthropicu v klasifikovaných vojenských prostrediach, hoci jej šéf Sam Altman neskôr pripustil, že okolnosti tohto obchodu pôsobili prinajmenšom neohrabane.

Aký je stav vzťahov s Ministerstvom vojny – stanovisko firmy Anthropic z 5. marca 2026:

Včera (4. marca 2026) dostala spoločnosť Anthropic list od Ministerstva vojny, ktorý potvrdzuje, že sme boli označení za riziko pre dodávateľský reťazec v rámci národnej bezpečnosti Ameriky. Ako sme písali v piatok, nedomnievame sa, že tento krok je právne opodstatnený, a nevidíme inú možnosť, než ho napadnúť na súde. Jazyk, ktorý Ministerstvo vojny v liste použilo (aj za predpokladu, že by bol právne opodstatnený), sa zhoduje s naším piatkovým vyhlásením, že veľkej väčšiny našich zákazníkov sa označenie za riziko pre dodávateľský reťazec netýka. Pokiaľ ide o našich zákazníkov, toto označenie sa jasne vzťahuje len na používanie systému Claude zákazníkmi ako priamej súčasti zmlúv s Ministerstvom vojny, nie na akékoľvek používanie systému Claude zákazníkmi, ktorí majú takéto zmluvy uzavreté.

List ministerstva má úzky rozsah, a to preto, že príslušný zákon (10 USC 3252) je takisto úzky. Existuje na ochranu vlády, nie na trestanie dodávateľa; zákon dokonca vyžaduje, aby minister vojny použil najmenej obmedzujúce prostriedky potrebné na dosiahnutie cieľa ochrany dodávateľského reťazca. Ani u dodávateľov Ministerstva vojny označenie za riziko pre dodávateľský reťazec neobmedzuje (a nemôže obmedzovať) používanie systému Claude alebo obchodné vzťahy s Anthropicom, ak nesúvisia s ich konkrétnymi zmluvami s ministerstvom. Rád by som zopakoval, že počas posledných dní sme s Ministerstvom vojny viedli produktívne rozhovory, a to o spôsoboch, akými by sme mohli ministerstvu slúžiť pri dodržaní našich dvoch úzkych výnimiek, ako aj o spôsoboch, ako zabezpečiť hladký prechod, ak by to nebolo možné. Ako sme napísali vo štvrtok, sme veľmi hrdí na prácu, ktorú sme spoločne s ministerstvom vykonali pri podpore bojovníkov v prvej línii pomocou aplikácií, ako sú analýza spravodajských informácií, modelovanie a simulácia, operačné plánovanie, kybernetické operácie a ďalšie.

Ako sme uviedli minulý piatok, nedomnievame sa a nikdy sme neverili, že úlohou Anthropicu alebo akejkoľvek súkromnej spoločnosti je podieľať sa na operačnom rozhodovaní – to je úloha armády. Našimi jedinými obavami boli naše výnimky týkajúce sa plne autonómnych zbraní a masového domáceho sledovania, ktoré sa týkajú oblastí použitia na vysokej úrovni, a nie operačného rozhodovania. Zároveň sa chcem priamo ospravedlniť za interný príspevok v rámci spoločnosti, ktorý včera unikol do tlače. Anthropic tento príspevok nevyniesol ani nikoho iného nenaviedol, aby tak urobil – nie je v našom záujme túto situáciu eskalovať. Daný príspevok bol napísaný v priebehu niekoľkých hodín po tom, čo prezident v príspevku na Truth Social oznámil, že Anthropic bude odstránený zo všetkých federálnych systémov, minister vojny v príspevku na sieti X oznámil označenie za riziko pre dodávateľský reťazec a po oznámení dohody medzi Pentagónom a OpenAI, ktorú aj samotná OpenAI neskôr označila za mätúcu. Pre spoločnosť to bol ťažký deň a ospravedlňujem sa za tón toho príspevku. Neodráža moje starostlivé alebo uvážené názory. Bol tiež napísaný pred šiestimi dňami a ide o zastarané hodnotenie aktuálnej situácie.

Našou najdôležitejšou prioritou je teraz zabezpečiť, aby naši bojovníci a experti na národnú bezpečnosť neboli uprostred veľkých bojových operácií pripravení o dôležité nástroje. Anthropic bude poskytovať naše modely Ministerstvu vojny a komunite národnej bezpečnosti za symbolickú cenu a s nepretržitou podporou našich inžinierov tak dlho, ako to bude potrebné na uskutočnenie tohto prechodu a kým nám to bude umožnené. Anthropic má s Ministerstvom vojny oveľa viac spoločného než rozdielneho. Obaja sme odhodlaní posilňovať národnú bezpečnosť USA a brániť americký ľud a zhodujeme sa na naliehavosti zavádzania AI v rámci celej vlády. Všetky naše budúce rozhodnutia budú vychádzať z tohto spoločného predpokladu.

Americká náborová kancelária - obrázok vytvorený AI Čítajte viac Americká armáda používa umelú inteligenciu na preverovanie poddôstojníkov pri povyšovaní

Kritika na adresu Pentagónu však prichádza z oboch strán politického spektra. Odporcovia aj odborníci upozorňujú, že nástroj určený na ochranu pred špionážou zo strany Pekingu či Moskvy bol teraz zneužitý proti domácej inovatívnej firme, čo vytvára nebezpečný precedens. Senátorka Kirsten Gillibrandová aj bývalí predstavitelia tajných služieb varujú, že takáto penalizácia amerických firiem za ich snahu o etickú bezpečnosť je krátkozraká a v konečnom dôsledku oslabuje technologický sektor USA. Paradoxne však tento konflikt priniesol Anthropicu obrovskú vlnu sympatií u bežných používateľov, vďaka čomu sa Claude stal najsťahovanejšou aplikáciou vo viac ako dvadsiatich krajinách sveta.

© Autorské práva vyhradené

Facebook X.com 2 debata chyba Newsletter
Viac na túto tému: #USA #Pentagon #umelá inteligencia #Ozbrojené sily USA #Ministerstvo obrany USA #Anthropic
Sledujte Pravdu na Google news po kliknutí zvoľte "Sledovať"