
O dezvăluire care dă fiori.../Rolul jucat de asistentul AI Claude în recentele atacuri americane
Comandamentul Central al SUA din Orientul Mijlociu, scrie Wall Street Journal , folosește Claude pentru evaluări de informații, identificarea țintelor și simularea scenariilor de luptă, potrivit unor persoane familiarizate cu problema.
Comandamentele militare americane au utilizat în mod activ instrumentul de inteligență artificială al companiei Anthropic, Claude, în atacurile împotriva Iranului, scrie The Wall Street Journal.
Asta în ciuda faptului că președintele Donald Trump a anunțat interzicerea utilizării tehnologiei companiei de către guvernul federal, cu doar câteva ore înaintea primului val de atacuri.
Decizia arată cât de mult se bazează în prezent operațiunile militare americane pe tehnologia Anthropic, chiar în condițiile disputei publice dintre companie și administrația Trump.
Evaluări, identificarea țintelor și simularea scenariilor de luptă
Comandamentul Central al SUA din Orientul Mijlociu, împreună cu alte comandamente din întreaga lume, folosesc Claude pentru evaluări de informații, identificarea țintelor și simularea scenariilor de luptă, potrivit unor persoane familiarizate cu problema.
Centcom a refuzat să comenteze ce sisteme specifice erau utilizate în operațiunea sa în curs împotriva Iranului, dar dezvăluirile evidențiază o discrepanță flagrantă între directivele politice de la Washington și realitățile operaționale de pe teren, scrie Wall Street Journal.
Trump, decizie împotriva Anthropic
Președintele SUA Donald Trump a anunțat, vineri, că ordonă fiecărei autorități federale să înceteze imediat folosirea tehnologiei produse de compania Anthropic, admițând însă că pentru insituții precum Departamentul Apărării va exista o perioadă de 6 luni, în care să se renunțe treptat la aceasta, informează Reuters.
Directiva lui Trump vine în contextul unei dispute între Pentagon și compania de inteligență artificială Anthropic legate de modul în care armata ar putea utiliza AI în război.
Problema pentru compania Anthropic este potențiala utilizare a instrumentelor sale, precum asistentul AI Claude, în două scopuri: „supravegherea internă în masă” a cetățenilor și „armele complet autonome”, scriu Reuters și BBC. Pentagonul insistă că nu vrea asta, dar cere Anthropic să elimine orice restricție din sistemele sale AI, lucru pe care compania îl refuză.
„Aceste amenințări nu ne schimbă poziția”
CEO-ul companiei Anthropic a declarat joi că nu va ceda în disputa cu Pentagonul privind modul în care este utilizată tehnologia sa de inteligență artificială (AI). Dario Amodei a spus că firma sa ar prefera să nu mai colaboreze cu Pentagonul decât să accepte utilizarea tehnologiei sale într-un mod care ar putea „submina, în loc să apere, valorile democratice”.
Comentariile lui Amodei vin la două zile după o întâlnire cu secretarul american al Apărării, în care Pete Hegseth a cerut ca Anthropic să accepte „orice utilizare legală” a instrumentelor sale. Întâlnirea s-a încheiat cu amenințarea de a elimina Anthropic din lanțul de aprovizionare al Pentagonului.
„Aceste amenințări nu ne schimbă poziția: nu putem accepta cererea lor cu conștiința curată”, a declarat Amodei.
Claude, folosit și în Venezuela
Claude a fost de asemenea utilizat în cadrul operațiunii de capturare a președintelui venezuelean Nicolás Maduro, în ianuarie.
Nu a fost clar nici cum a fost utilizat Claude în Venezuela. Dar The Guardian scrie că Anthropic a fost primul dezvoltator de inteligență artificială cunoscut pentru utilizarea într-o operațiune secretă a Departamentului Apărării al SUA.
Wall Street Journal a citat surse anonime care au afirmat că Claude a fost utilizat prin parteneriatul cu Palantir Technologies, un contractor al Departamentului Apărării al SUA și al agențiilor federale de aplicare a legii.
Armata SUA și alte armate utilizează din ce în ce mai mult inteligența artificială ca parte a arsenalului lor. Armata israeliană a utilizat drone cu capacități autonome în Gaza și a utilizat pe scară largă AI pentru a-și completa baza de date cu ținte în Gaza. Armata SUA a utilizat AI pentru a identifica ținte în atacurile din Irak și Siria din ultimii ani, mai scrie The Guardian.
