Súčasné vojenské konflikty prechádzajú hlbokou transformáciou, v ktorej sa zodpovednosť za použitie sily postupne prenáša z ľudí na stroje. Umelá inteligencia sa stáva integrálnou súčasťou takzvaných postupov nasadenia, čo mení charakter boja od základov. Už nejde len o technologicky vyspelé rakety či inteligentné bomby, ale o celé spektrum autonómnych prostriedkov od rojov dronov až po podvodné systémy schopné sabotovať strategickú infraštruktúru, ako sú plynovody v Baltskom mori alebo podmorské optické káble. Pre tých, ktorí dokážu zručne ovládať algoritmy, sa vojna stáva efektívnejšou, cielenejšou a paradoxne lacnejšou, čo potvrdili aj nedávne sofistikované operácie využívajúce simultánne technické narušenia komunikačných zariadení.
Kľúčovým zlomom bol masový nástup pokročilých jazykových modelov, ktoré prenikli aj do najtajnejších informačných tokov ozbrojených síl. Umelá inteligencia dnes funguje ako mimoriadne výkonný asistent stratégov, schopný v priebehu niekoľkých sekúnd analyzovať nepredstaviteľné objemy dát zo satelitov, smartfónov či sledovacích systémov a premeniť ich na konkrétne plány nasadenia. Táto technologická revolúcia však prináša aj riziká, ktoré sme už raz podcenili pri sociálnych sieťach. Kým verejnosť bola opojená víziou slobodnejšieho internetu, v skutočnosti sme čelili nárastu extrémizmu a informačného chaosu. Dnes pri umelej inteligencii hrozí zopakovanie tejto chyby s oveľa tragickejšími následkami, keďže technológia už nemení len sociálne vzťahy, ale priamo spôsob vedenia vojny a mieru štátneho dohľadu nad občanmi.
Algoritmus Lavender je pokročilý systém založený na umelej inteligencii, ktorý vyvinula izraelská elitná spravodajská jednotka 8200. Jeho existencia a fungovanie boli odhalené investigatívnymi novinármi a predstavujú zásadný posun v tom, ako sa vedie moderná mestská vojna. Takto systém funguje:
Masívny zber dát a strojové učenie – Lavender nepracuje s vizuálnym rozpoznávaním (ako drony), ale s analýzou veľkých dát (big data). Systém bol vytrénovaný na údajoch o známych príslušníkoch Hamasu a Palestínskeho islamského džihádu.
- Vstupné dáta: Algoritmus analyzuje informácie o takmer celej populácii v Pásme Gazy (približne 2,3 milióna ľudí).
- Zdroje: Využíva dáta zo sledovania komunikácie, sociálnych sietí, pohybov mobilných telefónov, kontaktov v adresároch a častých zmien telefónnych čísel.
Prideľovanie „skóre“ (0 až 100) – Systém každému jednotlivcovi pridelí číselné hodnotenie na základe toho, nakoľko sa jeho správanie a komunikačné vzorce zhodujú s profilom teroristu. Príznaky: Ak sa niekto často vyskytuje v blízkosti známeho operatívca Hamasu, mení často SIM karty alebo sa nachádza v lokalitách spojených s vojenskou infraštruktúrou, jeho skóre stúpa. Prahová hodnota: Armáda určí hranicu (napr. skóre 90), nad ktorou je osoba automaticky označená za legitímny cieľ útoku. V počiatočných fázach konfliktu Lavender údajne označil až 37 000 Palestínčanov ako podozrivých militantov.
Integrácia so systémom „Where’s Daddy?“ – Samotný Lavender cieľ len identifikuje. Na jeho fyzickú likvidáciu sa používa ďalší automatizovaný systém s názvom „Where’s Daddy?“ (Kde je ocko?).
- Tento systém sleduje pohyb označených osôb v reálnom čase.
- Je naprogramovaný tak, aby vyslal upozornenie, keď cieľ vstúpi do svojho domova.
- Útoky sa teda primárne nerealizovali v poli alebo pri vojenskej aktivite, ale v noci, keď bol cieľ doma so svojou rodinou.
Minimalizácia ľudského faktora a štatistická chyba – Podľa svedectiev spravodajských dôstojníkov slúžil personál len ako pečiatka.
- Čas na overenie: Dôstojníci údajne trávili nad každým cieľom vybraným strojom približne 20 sekúnd – len aby potvrdili, že cieľ je muž (keďže ženy v Hamase bežne nebojujú).
- Miera presnosti: Lavender má približne 10 % chybovosť. To znamená, že každý desiaty označený cieľ nemá s terorizmom nič spoločné (napr. môže ísť o civilistu, ktorý náhodou používa telefón po mŕtvom militantovi).
Kalkulácia vedľajších škôd – Využitie algoritmu Lavender zmenilo aj etické pravidlá nasadenia (Rules of Engagement).
- Pri cieľoch s nižšou hodnosťou (radoví bojovníci) armáda povolila „vedľajšie škody“ v rozsahu 15 až 20 mŕtvych civilistov na jedného militanta.
- Pri vysokopostavených veliteľoch toto číslo stúpalo na stovky.
- Kvôli úspore drahej presnej munície boli tieto „algoritmické ciele“ často likvidované tzv. hlúpymi bombami (neriadená munícia), čo viedlo k totálnej deštrukcii celých bytových domov.
V centre tohto diania stojí zásadný spor medzi politickou mocou a technologickými vizionármi. Štátne inštitúcie ako Pentagon odmietajú akceptovať obmedzenia kladené súkromnými firmami, zatiaľ čo lídri technologických gigantov varujú pred absenciou zákonných mantinelov pre túto „technologickú vlnu cunami“. Delegovanie smrtiacej sily na algoritmy totiž umožňuje veliteľom zbaviť sa morálnej ťarchy rozhodovania tým, že ho zveria stroju. Umelá inteligencia tak už nielen pasívne pomáha, ale aktívne vyberá ciele a v niektorých prípadoch rozhoduje o paľbe bez priameho ľudského zásahu, čím sa zodpovednosť stáva nejasnou a rozptýlenou.
Kým systém Lavender (Levanduľa) sa zameriava na identifikáciu konkrétnych osôb, systém Gospel je navrhnutý na generovanie cieľov v podobe budov a infraštruktúry. Izraelská armáda tento systém otvorene opísala ako „továreň na ciele“, ktorá dokáže produkovať útočné plány s priemyselnou rýchlosťou. Tu sú kľúčové detaily jeho fungovania:
Rozsah a povaha cieľov – Gospel nie je zameraný na vojakov v poli, ale na to, čo armáda nazýva „silové ciele“ (power targets). Patria sem:
- Viacposchodové obytné domy: Kde sa predpokladá prítomnosť kancelárií alebo bytov osôb napojených na Hamas.
- Vládne budovy a infraštruktúra: Banky, univerzity, policajné stanice.
- Súkromné rezidencie: Domovy osôb, ktoré systém vyhodnotí ako dôležité pre logistiku nepriateľa.
Cieľom útokov na tieto budovy je často vyvolať „civilný šok“ a podkopať spoločenskú podporu pre vládnuce hnutie.
Algoritmická analýza dát – Systém Gospel spracováva obrovské objemy informácií, ktoré ľudský analytik nedokáže prepojiť:
- Senzorické dáta: Odposluchy, satelitné snímky a zábery z dronov.
- Analýza zmien: Systém si všíma drobné zmeny v teréne, napríklad zvýšený pohyb ľudí okolo nenápadnej budovy alebo novú anténu na streche.
- Prediktívne modelovanie: AI dokáže odhadnúť, ktoré civilné budovy sú využívané ako veliteľské centrá na základe vzorcov správania a elektronických signálov.
Automatizovaný odhad civilných obetí – Jednou z najkontroverznejších funkcií systému Gospel je automatizovaná kalkulácia vedľajších škôd.
- Systém pre každú budovu vopred vypočíta pravdepodobný počet civilných obetí.
- Vojenskí velitelia potom dostanú „balíček cieľa“, ktorý obsahuje odporúčanú muníciu a povolený limit mŕtvych civilistov pre daný objekt.
- Ak systém vypočíta, že pri zničení budovy zahynie napríklad 20 civilistov, a táto hodnota je v rámci schválených pravidiel, útok je autorizovaný.
Rýchlosť: Človek vs. Stroj – Pred zavedením systému Gospel dokázala spravodajská služba vygenerovať približne 50 cieľov ročne v celom Pásme Gazy. S nasadením AI tento systém vyprodukoval stovky cieľov denne.
- Ľudskí analytici už ciele „nevyhľadávajú“, oni len „schvaľujú“ to, čo stroj vyprodukoval.
- Bývalí dôstojníci prirovnali prácu s Gospelom k „pásovej výrobe“, kde kritické myslenie ustupuje tlaku na kvantitu a efektivitu.
Strategický dopad – Masívne využitie systému Gospel vedie k totálnej deštrukcii mestskej zástavby. Keďže AI identifikuje ciele na základe širokých algoritmov, pod paľbu sa dostávajú aj budovy, ktoré by za bežných okolností neboli považované za prvoradé vojenské hrozby. Výsledkom je bezprecedentná úroveň zničenia civilnej infraštruktúry, ktorá robí celé oblasti neobývateľnými na roky dopredu.
Moderné systémy podpory rozhodovania sa za posledné desaťročia posunuli od opisných funkcií k prediktívnym a preskriptívnym úlohám. Algoritmy už len neodhadujú riziká, ale priamo diktujú kroky, ktoré majú vojaci vykonať, čím sa človek ocitá na okraji rozhodovacieho procesu. Príkladom tejto novej reality je konflikt na Ukrajine, kde väčšinu obetí spôsobujú nízkonákladové drony riadené umelou inteligenciou, alebo operácie v Gaze, kde boli tisíce osôb označené za ciele na základe strojových zoznamov. Tento posun je mrazivý v porovnaní s nedávnou minulosťou, kedy aj najmocnejší svetoví lídri pociťovali hlbokú osobnú úzkosť a zodpovednosť za každú chybu či nevinnú obeť pri útokoch dronov. Dnes algoritmus chladne vyhodnotí zoznam mien a určí, kto má byť eliminovaný, čím sa vojna mení na dehumanizovaný proces riadený kódom.
Rezignácia generálnej riaditeľky divízie robotiky v OpenAI
Vedenie spoločnosti OpenAI zasiahla v sobotu nečakaná rezignácia, keď svoju funkciu opustila generálna riaditeľka divízie robotiky Caitlin Kalinowská. Hlavným motívom tohto kroku je nová dohoda medzi technologickým gigantom a americkou vládou, ktorá otvára dvere k využívaniu pokročilej umelej inteligencie na vojenské účely a vnútroštátne sledovanie. Kalinowská svoje rozhodnutie verejne odôvodnila tým, že hoci AI zohráva v národnej bezpečnosti dôležitú úlohu, otázky týkajúce sa sledovania občanov bez súdneho dohľadu či autonómnych smrtiacich systémov bez ľudskej kontroly si vyžadovali oveľa hlbšiu diskusiu, než akej sa im v skutočnosti dostalo.
Získanie kontraktu s Pentagónom vo februári sprevádzali dramatické okolnosti. OpenAI dohodu uzavrela len niekoľko hodín po tom, čo konkurenčná spoločnosť Anthropic odmietla vládne ultimátum. Vláda od Anthropicu požadovala neobmedzený prístup k ich AI asistentovi Claude pre potreby armády, čo spoločnosť z etických dôvodov zamietla. Celý incident vyvolal vlnu hnevu aj u Donalda Trumpa, na čo šéf OpenAI Sam Altman reagoval oznámením série zmien v zmluve. Do dohody bola narýchlo pridaná klauzula, podľa ktorej by systémy nemali byť „úmyselne“ zneužívané na sledovanie amerických občanov, čo však podľa kritikov nepredstavuje dostatočnú záruku.
Kalinowská zdôraznila, že jej odchod nie je namierený proti konkrétnym osobám, ale ide o otázku principiálneho nastavenia firmy. Napriek rešpektu voči Samovi Altmanovi a celému tímu vyjadrila znepokojenie nad tým, že kľúčové rozhodnutia boli prijaté príliš unáhlene a bez vopred definovaných bezpečnostných mantinelov. Podľa jej slov ide v prvom rade o problém riadenia a správy (governance), pretože témy s takým obrovským celospoločenským dopadom sú príliš dôležité na to, aby sa procesy ich schvaľovania a oznamovania urýchľovali na úkor dôkladnej reflexie.