Pe masura ce tehnologia avanseaza, cresc si riscurile utilizarii acesteia. Toate instrumentele care imbunatatesc colectarea si analiza datelor sporesc, de asemenea, probabilitatea ca datele cu caracter personal si informatiile sensibile sa apara acolo unde nu le este locul. Inteligenta Artificiala si dezvoltarea sa accelerata, utilizarea la scara larga in foarte multe aplicatii, nu au facut decat sa complice si mai tare asigurarea confidentialitatii datelor si informatiilor sensibile.
In era AI, informatiile sensibile sunt colectate si utilizate pentru a crea si a ajusta fin sistemele AI si de invatare automata. Si pe masura ce factorii de decizie politica se grabesc sa abordeze problema prin reglementari privind confidentialitatea in utilizarea AI, acestia creeaza noi provocari de conformitate pentru companiile care folosesc tehnologiile AI in procesele decizionale.
Companiile continua sa implementeze modele de AI pentru a creste productivitatea si pentru a genera valoare. Dar sistemele de inteligenta artificiala sunt concepute pentru a extrage tipare comportamentale din aceste date. Aceste tipare pot dezvalui informatii sensibile despre sanatate, opinii politice, stare financiara si chiar conditia mentala. De fapt, nu este nevoie sa dezvaluiti informatiile in mod direct; algoritmii avansati le pot deduce din comportamentul digital.
Unul dintre aspectele mai putin cunoscute ale colectarii datelor il reprezinta metadatele. Metadatele sunt informatii despre date – cum ar fi momentul in care a fost trimis un mesaj, locatia unei fotografii sau dispozitivul utilizat. Chiar daca continutul propriu-zis al datelor este criptat, metadatele pot dezvalui informatii semnificative despre viata persoanei. Modelele de limbaj AI si sistemele de procesare a limbajului natural pot folosi metadatele pentru a construi profiluri precise. Aceste profiluri nu includ doar informatii evidente, ci pot prezice si aspecte ascunse ale personalitatii si comportamentului.
Sistemele de recunoastere vocala, precum asistentii vocali, asculta in permanenta. Desi aceste dispozitive ar trebui sa inceapa inregistrarea doar dupa ce aud cuvantul de activare, au existat rapoarte despre activari neintentionate si inregistrari ale conversatiilor private. Modelele de tip Transformer si sistemele avansate de NLP pot analiza nu doar cuvintele, ci si tonul, emotiile si chiar elementele nerostite. Aceasta capacitate poate fi folosita pentru a intelege mai bine nevoile utilizatorilor, dar poate fi utilizata si pentru manipulare sau incalcari ale confidentialitatii.
Invatarea supervizata si invatarea nesupervizata permit sistemelor AI sa identifice tipare complexe in comportamentul uman. Aceste sisteme pot prezice cand este probabil sa va imbolnaviti, cand veti parasi locul de munca sau pot chiar estima probabilitatea de a comite o infractiune. Desi aceste predictii pot fi utile, ele pot duce, de asemenea, la discriminare. Daca un sistem de AI prezice ca sunteti un angajat cu „risc ridicat”, vi s-ar putea refuza oportunitati de angajare – chiar daca predictia este incorecta.
Riscurile care apar pe masura ce datele noastre sunt vandute, cumparate sau folosite in sisteme AI sunt reale. Discutam despre lipsa de transparenta, despre date foarte multe procesate si utilizate, de lipsa controlului asupra informatiilor colectate despre utilizatori, despre scopurile in care vor fi folosite informatiile mai departe.
Mai apare si riscul folosirii datelor noastre si instrumentelor AI in scopuri antisociale. De pilda instrumentele clasice de acum cu ajutorul carora se genereaza texte in cateva secunde pot sa preia in antrenamentele lor date personale si sa le „tina” in memorie, fiind utilizate mai tarziu pentru furtul de identitate sau fraude. Sistemele AI pot refolosi un CV sau o fotografie care aveau un scop legitim pentru a ajunge mai usor la anumite date, la conturi ce apartineau posesorilor de drept ai informatiilor disponibile online.
Chiar si in HR avem numeroase riscuri cu aceste instrumente AI de automatizare a trierii candidatilor si a angajarilor. E cunoscut deja cazul Amazon, care si-a construit si gandit un sistem integrat de screening AI pentru angajari, doar ca sa descopere ca nu era perfect si era o problema cu angajarile indivizilor de sex feminin.
Recunoasterea faciala pentru a identifica si retine criminalii, pe cei care incalca legea este o alta zona un de riscurile sunt cat se poate de reala. Daca exista erori in datele folosite pentru antrenarea sistemelor AI se poate ajunge usor la arestari ale unor persoane care nu fac parte din „targetul” vizat.
Se mai aduce in discutie si ideea supravegherii fara acordul nostru, via AI, prin cookies sau alte sisteme si algoritmi AI. Si toate datele personale, sensibile pot ajunge imediat pe mana unui hacker, pot sa fie disponibile online dupa ce sunt „furate”, vandute.
Daca in urma cu 10 ani de gandeam la confidentialitatea datelor in termeni de shopping online si cam atat, astazi e nevoie de o discutie aplicata si cat mai bine articulata despre confidentialitatea datelor in contextul Inteligentei Artificiale. Confidentialitatea datelor in era AI se refera la practica protejarii informatiilor personale si sensibile colectate, folosite, partajate, stocate de AI. Confidentialitatea raportata la AI este in stransa legatura cu un alt concept, confidentialitatea datelor, care are la baza principiul controlului asupra datelor personale. Tu ar trebui sa decizi cum anume organizatiile colecteaza datele tale, le stocheaza si le folosesc.
Eforturi publice pntru a preveni compromiterea datelor si pentru asigurarea confidentialitatii datelor au fost inca din anii 1970. Cu toate astea, cresterea galopanta a colectarii de date comercializate si dezvoltarea accelerata a instrumentelor si sistemelor AI au condus la o nevoie stringenta de a avea o legislatie care sa ne protejeze in fata riscurilor deja enumerate anterior.
Uniunea Europeana a venit cu GDPR (General Data Protection Regulation), care impune niste reguli clare pentru toti cei implicati in procesarea si folosirea datelor personale, colectarea de date e minima si mereu are un scop precis, declarat, la vedere. Dupa ce scopul va fi fost indeplinit, datele colectate la un anumit moment vor fi sterge, conform legislatiei GDPR in vigoare.
Si tot la nivelul UE mai exista o lege pentru AI, care reglementeaza clar AI-ul, prima de acest fel, cu reguli foarte clare, un management clar al riscului si transparenta totala cand vine vorba de AI. Potrivit textului legii in vigoare, nu ai voie sa te folosesti de poze faciale de pe internet, din sisteme tip CCTV pentru baze de date folosite la recunoastere faciala, autoritatile nu pot folosi date de identificare biometrice in timp real remote in public, iar sistemele AI care vin la pachet cu riscuri foarte mari trebuie sa respecte si ele reguli extrem de clare si de dure in privinta datelor, informatiilor utilizate.
In SUA, in martie 2024, in Utah am avut o lege pentru AI, prima lege de acest fel dintr-un stat american care isi propune sa reglementeze AI-ul. La nivel guvernamental exista din 2022 un proiect de lege pentru AI, cu cinci principii legate de dezvoltarea AI si o sectiune dedicata confidentialitatii datelor din spatele AI-ului.
In California, din 1 ianuarie 2026, au intrat in vigoare reglementari stricte pentru chatbot-urile AI (SB 243), impunand transparenta totala (utilizatorul trebuie sa stie ca vorbeste cu un AI) si protectie sporita pentru minori, iar in Colorado s-a adoptat Colorado AI Act, care va intra pe deplin in vigoare la mijlocul anului 2026, concentrandu-se pe prevenirea discriminarii algoritmice. Tot in SUA, legea „Take It Down Act” (adoptata in 2025) devine aplicabila in mai 2026, obligand platformele sa elimine deepfake-urile cu caracter sexual in 48 de ore.
China a fost insa prima tara care a venit cu o legislatie coerenta si foarte bine pusa la punct legata de AI si de confidentialitatea datelor. In 2023, China a avut o lege pentru AI, pentru serviciile generative AI, care impunea si ea reguli clare legate de datele colectate si folosite si de modul in care AI-ul putea influenta utilizatorii.
Din 1 martie 2026, intra in vigoare noi standarde de siguranta pentru procesarea transfrontaliera a informatiilor personale, afectand direct companiile AI care opereaza international.
Revenind pe continentul european si alte zone importante, Italia a aprobat in septembrie 2025 o lege nationala care completeaza regulile UE, introducand pedepse cu inchisoarea pentru distribuirea de deepfake-uri fara consimtamant, Vietnam are prima sa lege nationala privind AI intra in vigoare pe 1 martie 2026, aliniind protectia datelor la standarde internationale.
India implementeaza la randul sau fazele finale ale DPDP Act (2023), care impune reguli stricte privind consimtamantul pentru datele folosite in antrenarea modelelor AI. Regatul Unit implementeaza Data (Use and Access) Act 2025, care vizeaza echilibrul intre inovatie si protectia datelor personale in sistemele automatizate, Australia va avea, din decembrie 2026, reguli de transparenta pentru deciziile luate prin sisteme automatizate (ADM).
Ce trebuie facut mai departe pentru a avea o confidentialitate a datelor reala in domeniul AI?
- Limitarea colectarii de date-companiile care folosesc si colecteaza date pentru antrenarea si analiza AI ar trebui sa stabileasca in mod clar perioade limitate de colectare a datelor si sa informeze in mod explicit clientii in legatura cu acest aspect;
- Cerere de consimtamant explicit de la clienti-e nevoie de mecanisme de consimtamant, acces, control legat de date;
- Securizarea datelor conform unor reguli stricte-trebuie evitate pierderea si furtul de date si metadate prin folosirea criptarii, anonimizarii si mecanismelor de control al accesului;
- Protejarea suplimentara a datelor din domenii sensibile, problematice-in sanatate, angajari si HR, educatie, justitie, finante personale trebuie avuta o grija suplimentara legata de datele folosite in sisteme AI;
- Raportari periodice legate de colectarea de date si stocarea de date-clientii trebuie sa primeasc raspunsuri clare la cerere despre datele stocate si folosite, trebuie sa existe rapoarte lunare, anuale legate de toate datele si informatiile colectate;
- Companiile trebuie sa investeasca in instrumente pentru asigurarea confidentialitatii datelor. Modelele folosite de AI trebuie sa aiba mereu evaluari ale riscurilor de confidentialitate, managementul problemelor de confidentialitate a datelor trebuie sa includa si colaborare intre cei care detin datele si cei care sunt responsabili de confidentialitatea lor.;
- Folosirea de tehnici specifice de antrenare si utilizare a datelor in sisteme AI-antrenarea descentralizata a modelelor locale, cu toate datele pe dispozitive locale, alaturi de criptare mult mai buna si mai puternica;
- Tehnici de anonimizare-de la confidentialitate diferentiala la pseudonimizare, date sintetice, toate vor contribui la mentinerea confidentialitatii datelor. Procesul practic implica modificarea, criptarea sau eliminarea identificatorilor personali, asigurand faptul ca datele nu pot fi urmarite inapoi catre un individ. In tandem cu anonimizarea, agregarea datelor combina puncte de date individuale in seturi de date mai mari, care pot fi analizate fara a dezvalui detalii personale. Aceste strategii reduc riscul incalcarilor confidentialitatii prin limitarea asocierii datelor cu persoane specifice in timpul analizei prin AI;
- Stabilirea de protocoale clare legate de orice input de la utilizatori-organizatiile trebuie sa documenteze si sa guverneze in mod clar ciclul de viata al acestor date de intrare, in special in ceea ce priveste jurnalizarea prompt-urilor (prompt logging), fluxurile de feedback si ajustarea fina (fine-tuning). Jurnalizarea este adesea necesara pentru depanarea tehnica si monitorizarea securitatii, aceasta ar trebui tratata ca fiind temporara; orice fel de prompt nu ar trebui sa fie stocat mai mult decat este necesar pentru aceste nevoi operationale imediate.
Concluzia e una singura: confidentialitatea datelor in era AI depinde mult de colaborarea dintre comapanii si autoritati, dar si de reactia prompta a utilizatorilor, a societatii imediat ce sunt depistate riscuri reale. Reglementarea si cautarea unor solutii de compromis, care sa nu afecteze utilizatorul final ar putea fi cheia pentru o lume in care AI-ul chiar respecta si confidentialitatea informatiilor sensibile, in orice fel de context.
