În spatele bombardamentelor americane din Iran: intrarea în război a inteligențelor artificiale

15 Mar 2026
În spatele bombardamentelor americane din Iran: intrarea în război a inteligențelor artificiale

Integrarea accelerată a inteligenței artificiale în operațiunile militare americane deschide o etapă fără precedent în modul în care sunt conduse războaiele. În centrul controversei se află Claude, sistemul dezvoltat de start-up-ul american Anthropic, folosit de Pentagon pentru analiză strategică și planificare operațională. După ce compania a refuzat utilizarea letală a tehnologiei sale, administrația de la Washington a reacționat dur, sancționând firma și orientându-se către alte modele de inteligență artificială. Disputa scoate la lumină o confruntare mai amplă: cine stabilește limitele utilizării inteligenței artificiale într-un context geopolitic dominat de competiție strategică și conflicte armate, scrie Le Figaro

Instrumentul Claude, dezvoltat de start-up-ul Anthropic și aflat în centrul aparatului militar american, a devenit punctul de ruptură dintre conducerea companiei și Casa Albă. Refuzând utilizarea letală a tehnologiei sale, compania este acum sancționată de Washington.

Se numește Claude. Inteligența sa este artificială. Strategiile sale sunt elaborate prin algoritmi într-o realitate virtuală. Consecințele propunerilor sale sunt însă foarte concrete. Claude a fost conceput de compania americană Anthropic, condusă de Dario Amodei, una dintre figurile majore ale industriei inteligenței artificiale. Sistemul este capabil să analizeze informații de intelligence în timp real, să asiste planificarea, să detecteze anomalii în fluxuri masive de date și să propună planuri de acțiune detaliate și metodice. Integrat din 2025 de serviciile Pentagonului în software-ul Maven, dezvoltat de compania Palantir, el a contribuit la transformarea radicală a dinamicii războiului, care intră astfel într-o nouă eră. Liniile frontului nu mai sunt trasate pe hărți de hârtie, ci pe interfețe digitale, unde viteza de calcul contează la fel de mult ca puterea de foc.

În acest context, ofensiva americană împotriva Iranului reprezintă un punct de cotitură major. Inteligența artificială nu se mai limitează la a asista strategia militară; ea îi dictează ritmul, redesenează prioritățile și substituie reflecția umană cu cea a mașinii. „Douăzeci de soldați care operează astăzi sisteme de inteligență artificială sunt la fel de eficienți ca cei 2.000 de analiști din timpul războiului din Golf”, notează New York Times. Această accelerare vertiginoasă și-a demonstrat eficiența redutabilă în ianuarie anul trecut. Tehnologia a fost utilizată pentru a orchestra răpirea președintelui venezuelean Nicolás Maduro și a soției sale. De asemenea, a jucat un rol cheie în operațiunea „Epic Fury”, declanșată de Statele Unite la 28 februarie împotriva Teheranului, care a dus la eliminarea liderului suprem Ali Khamenei. Cu acest episod, Claude este folosit pentru prima dată într-un război major. Integrarea sa în operațiunile americane îi îngrijorează pe numeroși observatori, dar a provocat mai ales furia dezvoltatorilor start-up-ului, care i-au transmis clar președintelui Donald Trump și lui Pete Hegseth, ministrul său al Apărării, opoziția lor față de utilizarea instrumentului într-un conflict armat.

Anthropic stabilise limite etice stricte privind modul în care tehnologiile sale puteau fi utilizate de administrație, dar numai într-un cadru compatibil cu valorile companiei. Potrivit conducerii sale, această poziție urmărea să evite transformarea inteligenței artificiale generative într-un instrument de coerciție fără supraveghere umană. Discursul nu a găsit însă ecou la Casa Albă, care și-a reorientat rapid nevoile către OpenAI, al cărei model GPT este acum preferat pentru proiectele strategice. Semnalul transmis de executivul american este clar: nu intenționează să lase o companie privată să impună statului propriile limite în perioade de tensiuni internaționale. Poziția a fost confirmată rapid, deoarece președintele Trump a decis să includă Anthropic pe lista „companiilor cu risc”. Această desemnare poate avea consecințe grave: start-up-ul este privat de contracte publice, sunt suspendate colaborările cu firmele din sectorul apărării, iar tuturor actorilor din ecosistemul federal li se interzice să utilizeze serviciile sale.

Câmpul de luptă al inteligenței artificiale

Combativ, start-up-ul a intrat într-un conflict deschis și contestă decizia, pe care o califică drept „interdicție economică”. Considerând aceste măsuri „fără precedent și ilegale”, compania a dat în judecată guvernul luni, 9 martie, pentru a obține ridicarea sancțiunilor.

Totuși, în pofida acestui recul, Anthropic nu este slăbită pe toate fronturile. Aplicația Claude, propulsată în primele poziții ale Apple Store din Statele Unite, continuă să atragă un public tot mai numeros. Rămâne de văzut dacă această dinamică va fi suficientă pentru a compensa ruptura cu Washingtonul. Într-un climat internațional în care inteligența artificială devine un instrument strategic la fel de important ca unul economic, Anthropic se confruntă cu o dilemă care depășește cadrul industrial: să își mențină direcția etică sau să se adapteze realității geopolitice.

Episodul creează, în orice caz, un precedent. El marchează una dintre primele confruntări directe dintre un guvern și o companie de inteligență artificială asupra utilizării militare a tehnologiilor sale și ridică o întrebare care devine de acum esențială: cum sunt definite limitele utilizării inteligenței artificiale într-o lume aflată în criză.

Alte stiri din Externe

Ultima oră