Ce nu ar trebui să-i mărturisești niciodată lui ChatGPT. De ce nu e un confident 100% sigur? Riscurile etice și legale ale confesiunilor

Ce nu ar trebui să-i mărturisești niciodată lui ChatGPT. De ce nu e un confident 100% sigur? Riscurile etice și legale ale confesiunilor

Declarațiile recente ale lui Sam Altman, CEO-ul OpenAI, potrivit cărora nu există protecție juridică pentru conversațiile cu ChatGPT, au readus în discuție riscurile confidențialității în era AI. Mai multe voci din domenii diferite, etică, drept, educație, avertizează că utilizatorii proiectează asupra inteligenței artificiale atribute umane care pot deveni periculoase.

laptop bărbat ChatGPT

ChatGPT

Ana Ruxandra Badea, doctor în bioetică, atrage atenția asupra unei greșeli fundamentale de percepție : „Internetul este spațiu public, prin urmare declarațiile lui Sam Altman nu ar trebui să ne ia prin surprindere. Însă, spre deosebire de spațiile publice tradiționale (cum sunt, de pildă, parcurile, străzile, școlile), internetul este în mare măsură controlat de entități (companii) private, și, deci, individului nu ii mai este garantată siguranța pe care statul i-o conferă în mod uzual”.

Internetul nu e un spațiu sigur

În opinia sa, generațiile care au fost martore la apariția internetului, în speță așa numiții millennials, generația X și baby boomers, au marele avantaj de a privi cu reticență și un ochi critic utilizarea internetului, spre deosebire de generațiile mai tinere, în special generația Z, ajunse acum la maturitate, care nu au cunoscut lumea ante-internet și cărora le lipsesc instrumentele necesare unei atitudini obiective și circumspecte asupra mediului virtual.

Această lipsă de filtrare critică duce la o tendință periculoasă de antropomorfizare a AI-ului. „Aceste atitudini sunt acum inevitabil transferate asupra inteligenței artificiale. Una din marile probleme de ordin etic cu repercusiuni grave în plan practic este permanenta antropomorfizare a acestui instrument pe care îl numim AI generativ, tindem să proiectăm abilități umane asupra unui artifact. „Inteligența” unui sistem AI nu are nimic a face cu inteligența umană, așa cum acțiunea de „chatting” (a sta de vorbă) cu Chat GPT nu are nimic a face cu dialogul inter-uman”, explică doctorul în bioetică.

Soluția pe termen lung, spune ea, ar fi constat într-o educație digitală solidă încă din familie și școală. „Lucrurile ar fi stat altfel dacă am fi avut grijă să pregătim (la școală și în familie) generațiile tinere să interacționeze cu tot ce înseamnă și ține de internet, așa cum îi pregătim să interacționeze cu lumea exterioară. Nici acum nu este prea târziu. Ca în cazul altor progrese tehnologice (ex: editarea genomului uman, cryptocurrency etc), statele și organizațiile internaționale cu greu țin pasul în dezvoltarea unui cadru legislativ adecvat sau măcar a unui cod de conduită (există la nivel UE inițiativa pentru asa-numitul „General-Purpose AI Code of Practice”)”, completează Ana Ruxandra Badea.

Însă, până la reglementarea AI pe plan național și internațional, există o obligație morală a OpenAI și a altor entități dezvoltatoare a AI de a acționa cu bună credință și de a lua toate măsurile de mitigare a riscurilor in interacțiunile om-AI (spre ex. mesaje de avertizare a utilizatorului), mai ales in lumina tendințelor accentuate (și arhi-cunoscute) de folosire a instrumentelor AI pe post de psihoterapeut, prieten, partener romantic, avocat sau chiar medic personal, mai spune ea.

AI-ul nu e avocat sau terapeut

La rândul său, avocata Ruxandra Vișoiu, co-fondatoarea R&R Partners, confirmă pentru Adevărul că riscurile legale sunt reale și insuficient înțelese de utilizatori. „Din ce am observat, da, este adevărat, inteligența artificială este în ultima vreme tratată ca terapeut, avocat sau confesor, să spunem așa, și nu sunt protejate legal aceste interacțiuni.”

Ea explică prețul ascuns al acestor confesiuni digitale: „Pe de-o parte este firesc, inteligența artificială are nevoie de input ca să crească, deci aceste informații pe care i le furnizăm, pentru că primim, în multe cazuri, răspunsuri gratuite, au un preț. Dar nimic nu este cu adevărat gratuit în ziua de azi și cred că ăsta e prețul pe care îl plătim.”

Spre deosebire de un avocat sau psiholog, AI-ul nu e acoperit de regimul de confidențialitate prevăzut de lege. „Pe de altă parte, dacă stăm să ne gândim... și când mergem la psiholog și la avocat, ne protejează legea. Sau, spre exemplu, eu ca avocat dacă îmi spune clientul că a comis anumite fapte nu pot să anunț autoritățile și Doamne ferește să-l pun în poziția în care să vină inculpat într-un proces penal sau alte asemenea”, lămurește Ruxandra Vișoiu.

Când pot deveni conversațiile cu ChatGPT probe legale

Totuși, crede că AI-ul nu poate fi ușor de folosit ca probă într-un proces penal. „Inteligența artificială nu văd cum ar putea să fie cu adevărat folosită ca probă. Cu alte cuvinte, da, este îngrijorător că multe persoane apelează la AI și spun anumite informații care ar trebui să rămână intime din viața lor, pe de altă parte, care este propriu zis riscul? (...) Dacă, spre exemplu, îi spun AI-ului: am comis o faptă penală, am furat un produs din magazin, asta nu înseamnă că mă inculpă în mod automat. Cu alte cuvinte, nu văd cum magazinul respectiv (...) să poată folosi, în urma unei expertize informatice (să zicem că laptopul sau mobilul meu este cercetat, și se vede că am întrebat AI-ul: «ce se întâmplă dacă fur din magazin?») această informație ca să ajungă în fața instanței. Nu cred că se poate ajunge acolo”, a adăugat ea.

Cu alte cuvinte, datele împărtășite într-un chat cu AI nu beneficiază de protecție legală, însă, în practică, probabilitatea ca ele să fie folosite împotriva utilizatorului este redusă, exceptând cazurile extreme. Ruxandra Vișoiu subliniază că doar într-un context foarte grav, cum ar fi o anchetă penală deja în curs, în care există deja probe împotriva unei persoane, s-ar putea ajunge la o analiză informatică detaliată a dispozitivelor acelei persoane. Doar în acel caz, dacă se descoperă, de exemplu, că aceasta a întrebat AI-ul cum să ascundă o crimă, o astfel de conversație ar putea fi luată în calcul ca probă suplimentară.

„Iar într-o situație de genul ăsta cred că poate fi AI-ul folosit cel mult ca o probă suplimentară, dar nu cred că doar din cele prin care ne-am confesat AI-ului putem să avem probleme adevărate. Nu la acest moment. (...) Tot insist pe partea de probe, pentru că probele în legea română, și nu numai, trebuie să îndeplinească anumite condiții ca să poată să fie utilizate. Spre exemplu, eu dacă vorbesc cu mama la telefon și îi spun că am comis anumite fapte, nu în toate cazurile înregistrarea respectivă poate fi folosită și să mă inculpe. Da, la fel și AI-ul. Trebuie să existe probe serioase cum că individul a realizat cu adevărat o faptă interzisă de lege”, mai spune specialistul.

De altfel, Ruxandra Vișoiu observă că utilizarea AI-ului nu mai este limitată doar la publicul tânăr, ci se extinde treptat și în rândul adulților de toate vârstele. Ea face o paralelă cu evoluția platformei TikTok: inițial percepută ca un spațiu destinat copiilor și conținutului de divertisment, aceasta a devenit, în timp, un instrument folosit inclusiv pentru manipulare în perioade electorale. În mod similar, crede că AI-ul va ajunge tot mai prezent în viața generațiilor adulte, iar problema reală va rămâne nivelul redus de informare privind modul în care sunt folosite datele personale, aspect pe care îl consideră deosebit de riscant.

Întrebarea esențială, spune avocata, este ce anume ar trebui să evităm să divulgăm într-un dialog cu un AI, având în vedere lipsa protecției legale și confuzia privind statutul acestor interacțiuni. Vișoiu avertizează că nu ne putem baza pe o reglementare clară a domeniului în viitorul apropiat și consideră că inteligența artificială va rămâne mult timp într-o „zonă gri”, în care normele legale vor întârzia să țină pasul cu evoluția tehnologică.

Zona gri a legislației

„Avem acum niște legislație europeană cu privire la AI, întâmplarea face că a trebuit să o studiez când mi-am dat doctoratul în drept, am avut o secțiune destul de serioasă în care am tratat inteligența artificială și felul în care ea ne impactează viețile de zi cu zi și am studiat legislația europeană. Cred că este făcută mai degrabă să ne sperie puțin și să ne atragă atenția, dar nu oferă soluții reale. (...) Cu alte cuvinte, tare mi-e că legea nu se va clarifica prea mult în următoarea perioadă. Și ce încerc să spun este să nu divulgi într-un chat cu AI ce n-ai vrea să afle nimeni altcineva. Adică poți lăsa întrebări generale, poate nu ne referim la propria persoană, poate nu ne referim la exemple mult mai concrete din viața de zi cu zi, lucruri care ar putea să ne inculpe, lucruri de care nu suntem mândri, dar care ar putea să fie ilegale. Și dacă punem aceste întrebări cu titlu general, nu cred că am putea să avem probleme din cauza lor și o să rămână doar o modalitate prin care inteligența artificială să fie hrănită, să spunem așa, ea să crească ca și platformă, pentru că este evident că are nevoie de asta”, adaugă co-fondatoarea R&R Partners.

Ruxandra Vișoiu concluzionează că: „Nu e vorba doar de AI. Utilizatorii de pe orice platformă trebuie să fie atenți la termeni și condiții. (...) Și, să nu uităm, că dacă vrem să ne confesăm, să cerem un sfat de la un psiholog sau avocat, nu avem nicio garanție că AI-ul este cu adevărat un profesionist și că o să ne dea sfaturi corecte”.

„Cred că ar trebui să existe același concept de intimitate pentru conversațiile tale cu un AI, așa cum există cu un terapeut sau un avocat”

Discuțiile vin în urma faptului că, zilele trecute, CEO-ul OpenAI, Sam Altman, a declarat într-un episod al podcastului This Past Weekend with Theo Von, că lipsa unui cadru legal clar face ca utilizatorii să-și expună viața personală fără vreo garanție juridică.

„Oamenii vorbesc cu ChatGPT despre cele mai personale lucuri din viața lor”, a spus Altman, citat de TechCrunch. „Tinerii, mai ales, îl folosesc ca terapeut sau coach de viață. Dar în prezent, dacă vorbești cu un specialist uman, ai confidențialitate legală. Cu ChatGPT... încă n-am rezolvat asta.”

Potrivit TechCrunch, Altman subliniază că OpenAI ar putea fi obligată legal să furnizeze conversațiile utilizatorilor în caz de proces. „Cred că ar trebui să existe același concept de intimitate pentru conversațiile tale cu un AI, așa cum există cu un terapeut sau un avocat”, a adăugat el.

OpenAI se află deja în mijlocul unui proces cu The New York Times, în care compania contestă un ordin judecătoresc ce ar obliga-o să salveze conversațiile a sute de milioane de utilizatori ChatGPT, cu excepția clienților Enterprise. Într-o declarație publică, OpenAI a numit această solicitare „un abuz de putere” și a anunțat că face apel.

TechCrunch amintește că problema confidențialității digitale a devenit tot mai stringentă în ultimii ani, mai ales după anularea deciziei Roe v. Wade, când milioane de femei din SUA au început să migreze către aplicații care criptează datele personale, precum Apple Health.

Altman și-a încheiat intervenția cu un apel la claritate : „Cred că e logic să vrei o certitudine juridică înainte să folosești ChatGPT la scară largă.”

Sursa: adevarul.ro


Citește și:

populare
astăzi

1 ALERTĂ Doi suspecți, puși la pământ de mascați și încătușați după ce l-au umilit și atacat pe tânărul polițist în Caraș-Severin

2 Așa o fi?

3 Iubirea pesedisto-liberală / Președintele PSD Argeș: „Când te milogeai, prin interpuși, să ajungi și tu vice, sugeai p.....psd-ului! Marș, javră!”

4 „Tremuram. Eram șocată și speriată” / „Exclus. Nu există niciun fel de reclamație de viol la adresa mea”

5 ALERTĂ Declarații de o perversitate rară ale ministrului PSD al Justiției pe tema legii privind pensiile magistraților anunțată de premierul Bolojan