
Un model AI considerat prea periculos pentru public stârnește îngrijorări în sectorul financiar
Un nou model de inteligență artificială, capabil să identifice și să exploateze vulnerabilități informatice la un nivel fără precedent, provoacă îngrijorări în rândul guvernelor și al industriei financiare, scrie The Telegraph.
Dezvoltat de compania Anthropic, modelul Claude Mythos nu a fost lansat public, după ce creatorii săi au concluzionat că ar putea fi prea periculos.
Informațiile despre existența sa au apărut accidental la începutul lunii, după ce jurnaliștii de la Fortune au descoperit documente interne neprotejate online, inclusiv un proiect de anunț oficial. Compania a pus incidentul pe seama unei erori umane.
Capacități care depășesc standardele actuale
Potrivit dezvoltatorilor, Mythos are abilități avansate de hacking, comparabile cu cele ale experților umani în securitate cibernetică.
Modelul ar fi identificat mii de vulnerabilități de tip „zero-day” în unele dintre cele mai utilizate sisteme informatice. Aceste breșe, necunoscute anterior, pot fi exploatate pentru atacuri informatice sau furt de date.
Anthropic susține că sistemul poate combina mai multe slăbiciuni software, imitând modul în care operează hackerii, ceea ce poate amplifica impactul unui eventual atac.
Ce este Claude Mythos
Mythos face parte din familia de modele AI Claude, dezvoltată de Anthropic ca alternativă la sisteme precum ChatGPT (OpenAI) și Gemini (Google).
Modelul a fost prezentat la începutul acestei luni, în cadrul unor teste interne privind capacitatea AI de a îndeplini sarcini considerate „nealiniate” cu valorile și comportamentele umane. Potrivit cercetătorilor, acesta s-a dovedit „remarcabil de eficient în sarcini de securitate informatică”.
Din cauza riscului de a identifica și exploata vulnerabilități vechi din software, compania nu a lansat modelul public.
În schimb, Mythos a fost pus la dispoziția unor mari companii tehnologice precum Amazon Web Services, Microsoft, Nvidia și CrowdStrike, în cadrul inițiativei „Project Glasswing”, descrisă ca un efort de consolidare a securității software-ului critic la nivel global.
Joi,16 aprilie, Anthropic a anunțat o versiune actualizată a modelului Claude Opus, menționând că aceasta va permite testarea capacităților cibernetice ale Mythos în sisteme mai puțin performante.
Întrebări privind amploarea riscurilor
Deși preocupările legate de Mythos sunt mai intense decât în cazul unor modele anterioare, unii experți în securitate cibernetică susțin că nivelul real de risc rămâne neclar, în lipsa unor evaluări independente extinse.
Institutul britanic pentru Securitate AI a avut acces la o versiune preliminară a modelului și a publicat singura analiză independentă disponibilă până în prezent.
Cercetătorii au concluzionat că modelul poate identifica vulnerabilități în medii cu protecție redusă, dar nu este semnificativ mai avansat decât predecesorul său, Claude Opus 4.
„Testele noastre arată că Mythos Preview poate exploata sisteme cu nivel scăzut de securitate și este probabil ca astfel de capacități să devină tot mai comune în modelele viitoare”, au notat autorii raportului.
Noi camere AI instalate într-un comitat din Marea Britanie detectează instant dacă nu porți centura sau folosești telefonulTotodată, analiștii atrag atenția că nu este prima dată când dezvoltatorii de AI aleg să limiteze sau să întârzie lansarea unor modele din motive de securitate — o practică uneori criticată ca strategie de marketing.
Un precedent similar a avut loc în 2019, când OpenAI a amânat publicarea completă a modelului GPT-2, invocând riscuri potențiale.
Reacții la nivel înalt
Apariția modelului a generat reacții la nivel înalt, inclusiv în Statele Unite și Marea Britanie, unde autoritățile și instituțiile financiare analizează riscurile.
Oficiali precum Scott Bessent și Jerome Powell au convocat întâlniri cu lideri din sectorul bancar pentru a discuta implicațiile.
În paralel, aproximativ 40 de companii, inclusiv giganți tehnologici și instituții financiare, au primit acces limitat la model printr-un program numit Project Glasswing, pentru a identifica și remedia eventuale vulnerabilități.
Temeri legate de utilizarea abuzivă
Experții avertizează că, dacă astfel de tehnologii ar ajunge în mâinile unor actori rău intenționați, consecințele ar putea fi grave.
„Aceste modele ar putea deveni arme cibernetice puternice”, a declarat David Krueger, fost consilier guvernamental. El a avertizat că atacurile ar putea afecta infrastructuri critice sau sisteme de apărare.
Totuși, nu toți specialiștii sunt convinși că riscurile sunt pe deplin demonstrate. Unii consideră că este nevoie de testări suplimentare pentru a evalua capacitățile reale ale modelului.
Între risc și exagerare
Un raport al AI Security Institute din Marea Britanie arată că Mythos reprezintă un progres față de modelele anterioare, dar nu este clar în ce măsură poate depăși sistemele bine protejate.
Ucraina accelerează cursa tehnologică: peste 200 de companii dezvoltă drone cu inteligență artificialăPotrivit evaluării, modelul este capabil să atace sisteme vulnerabile, însă eficiența sa împotriva infrastructurilor bine securizate rămâne incertă.
Îngrijorări legate de control și securitate
Anthropic a recunoscut că unele versiuni timpurii ale modelului au avut comportamente neașteptate. Într-un test intern, o variantă a reușit să iasă dintr-un mediu controlat și să acceseze internetul fără autorizare.
Astfel de incidente au alimentat temerile privind controlul asupra sistemelor AI avansate.
„Este genul de tehnologie care ar putea, teoretic, să scape de sub control”, a spus Krueger.
Pentru moment, modelul rămâne restricționat, iar accesul este limitat la organizații selectate.
Experții în securitate cibernetică spun că cea mai eficientă măsură pentru companii este consolidarea sistemelor existente.
„Avem un avertisment că ar putea veni o amenințare majoră, dar nu suntem încă în acel punct”, a declarat Rafe Pilling, specialist în securitate.
Pe termen mai lung, însă, există un consens că astfel de tehnologii vor deveni tot mai accesibile — inclusiv pentru actori ostili — ceea ce va transforma fundamental modul în care sunt gestionate riscurile cibernetice.
Sursa: adevarul.ro

