
Agențiile de spionaj experimentează cu cele mai noi modele de inteligență artificială
În aceeași zi în care Donald Trump a depus jurământul pentru un nou mandat, compania chineză DeepSeek a lansat un model lingvistic de mari dimensiuni (LLM) considerat de experți drept unul de nivel mondial. Evenimentul a atras atenția oficialilor americani, chiar și a președintelui. Senatorul Mark Warner, vicepreședinte al Comisiei pentru Informații din Senatul SUA, a recunoscut că serviciile de informații americane au fost „luate prin surprindere”.
Administrația Biden și-a exprimat frecvent îngrijorarea că armata și serviciile de informații chineze ar putea adopta tehnologiile de inteligență artificială (AI) mai rapid decât cele americane. În consecință, Washingtonul a cerut agențiilor de securitate națională, inclusiv Pentagonului și Departamentului Energiei, să colaboreze activ cu cele mai avansate laboratoare de AI – precum Anthropic, Google DeepMind și OpenAI – și să experimenteze intensiv cu cele mai recente modele.
Pe 14 iulie, Pentagonul a acordat contracte de până la 200 de milioane de dolari fiecărei dintre cele patru companii: Anthropic, Google, OpenAI și xAI, compania fondată de Elon Musk. Obiectivul: testarea modelelor „agentice” – sisteme capabile să descompună sarcini complexe în pași și să opereze independent, controlând alte dispozitive, de la computere la vehicule autonome, scrie The Economist.
Aceste laboratoare ”de frontieră” nu colaborează doar cu armata, ci și cu serviciile secrete. În special, modelele lingvistice avansate sunt deja folosite în analiza datelor clasificate. Microsoft a anunțat în ianuarie că 26 dintre produsele sale cloud au fost autorizate pentru utilizarea în cadrul agențiilor de informații. În iunie, Anthropic a lansat Claude Gov, o versiune adaptată special pentru structurile de securitate națională din SUA.
Spre deosebire de versiunile publice ale modelelor, variantele utilizate de agenții sunt ajustate pentru a permite accesul la documente clasificate și pentru a susține limbaje și dialecte rare sau specializate. Acestea sunt găzduite pe servere izolate de internetul public și integrate direct în infrastructura instituțională.
Un proces similar are loc și în Europa. „În materie de AI generativă, încercăm să fim adepți extrem de rapizi ai modelelor <<de frontieră>>”, a declarat o sursă din serviciile britanice. Toate agențiile din comunitatea de informații a Regatului Unit (UKIC) au deja acces la capabilități LLM clasificate. În Franța, firma Mistral – considerată liderul european în AI – colaborează cu agenția militară AMIAD, iar modelele sale sunt specializate în limbaje din Orientul Mijlociu și Asia de Sud, precum araba și tamilă.
Totuși, adoptarea tehnologiei rămâne lentă, avertizează Katrina Mulligan, fost oficial în domeniul apărării și intelligence, în prezent responsabilă de parteneriatele OpenAI. Deși unele agenții, precum NSA, excelează în aplicarea AI în domenii precum recunoașterea vocală, altele încă preferă să construiască propriile interfețe în jurul chatbot-urilor comerciali, ceea ce le menține în urmă față de modelele publice actuale.
„Transformarea nu constă doar în a folosi AI ca pe un chatbot”, afirmă Tarun Chhabra, fost consilier pe tehnologie la Consiliul Național de Securitate al SUA și acum director de politici la Anthropic. „Vine în momentul în care începi să îți regândești complet misiunea cu ajutorul acestor tehnologii.”
Cursa între AI și securitate
Unii experți sunt sceptici față de ritmul și amploarea acestui avans. Dr. Richard Carter, de la Institutul Alan Turing din Marea Britanie, avertizează că serviciile de informații caută mai degrabă stabilitate decât inovație riscantă. O preocupare majoră este reducerea așa-numitelor „halucinații” – răspunsuri eronate generate de LLM-uri. Agențiile britanice folosesc tehnica „generării augmentate prin regăsire” (RAG), unde un algoritm caută surse fiabile pe care apoi le transmite modelului AI.
Totuși, multe laboratoare se concentrează pe modele mai complexe, de tip agentic. De pildă, Mistral a prezentat un prototip în care fluxurile de informații – imagini satelitare sau interceptări vocale – sunt gestionate fiecare de un agent AI separat, ceea ce accelerează luarea deciziilor. Un alt scenariu ipotetic: un agent AI capabil să identifice, să cerceteze și să contacteze sute de oameni de știință iranieni din domeniul nuclear pentru a-i convinge să dezerteze.
Problema acestor modele constă în caracterul lor imprevizibil: ele își generează singure pașii logici, ceea ce le face susceptibile la erori recurente. ChatGPT agent, cel mai recent model agentic de la OpenAI, are o rată de halucinații de aproximativ 8%, potrivit evaluărilor companiei – mai mare decât predecesorul său.
Unii văd în prudența instituțională o rigiditate birocratică, dar Dr. Carter susține că este o formă sănătoasă de conservatorism. „GCHQ, de exemplu, are o forță de muncă extrem de capabilă, dar și foarte sceptică față de noile tehnologii.”
Adevărata miză: cine adoptă mai rapid
Această dezbatere se încadrează într-o întrebare mai amplă: ce urmează în AI? Dr. Carter consideră că arhitectura actuală a modelelor LLM nu este potrivită pentru tipul de raționament cauzal pe care îl necesită agențiile de informații. În opinia sa, serviciile ar trebui să impulsioneze dezvoltarea unor noi tipuri de modele, axate pe logică și înțelegere profundă a lumii.
Între timp, unii avertizează că Beijingul ar putea lua avans. „Există încă un gol imens în înțelegerea noastră despre cum și în ce măsură China folosește DeepSeek în scopuri militare sau de informații”, afirmă Philip Reiner, de la Institute for Security and Technology din Silicon Valley. „Este posibil ca modelele lor să nu aibă aceleași limite impuse de etică sau siguranță, ceea ce le-ar putea oferi un avantaj semnificativ.”
Pe 23 iulie, administrația Trump a cerut Pentagonului și agențiilor de informații să evalueze periodic ritmul adoptării AI în SUA, în comparație cu țări precum China, și să elaboreze o strategie de adaptare continuă.
Senatorul Warner subliniază că America trebuie să-și îmbunătățească monitorizarea progresului chinez. „Serviciile noastre nu urmăresc eficient avansul tehnologic al Chinei. Penetrarea companiilor tech chineze este încă foarte slabă.” Katrina Mulligan adaugă: „Cel mai mare risc nu este să implementăm prea repede o tehnologie pe care nu o înțelegem. Este să continuăm să lucrăm ca înainte – și să câștigăm cursa pentru AGI, dar să pierdem cursa pentru adoptarea sa eficientă.”
Sursa: adevarul.ro