Introducere
Într-o lume din ce în ce mai digitalizată, unde informația circulă rapid și fără restricții, provocările legate de dezinformare devin din ce în ce mai evidente. Recent, un experiment realizat de cercetători din Suedia a evidențiat modul în care inteligența artificială (IA) poate prelua și răspândi informații false, punând în discuție fiabilitatea surselor de informație medicală online. Această cercetare a dus la inventarea unei boli fictive, „bixonimania”, care a fost ulterior promovată ca reală de către diverse modele de IA. Articolul de față analizează implicațiile acestui experiment, impactul său asupra societății și perspectivele experților în domeniu.
Contextul experimentului
Experiența în cauză a fost condusă de Almira Osmanovic Thunström, cercetător medical la Universitatea din Göteborg, Suedia. Scopul acestui experiment a fost de a evalua capacitatea modelelor de inteligență artificială de a distinge între informațiile corecte și cele false. Osmanovic Thunström a creat o afecțiune fictivă, bixonimania, pe care a promovat-o prin intermediul unor publicații false, inclusiv studii pe un server de preprint. Acest demers a fost menit să testeze cât de ușor pot fi absorbite informațiile eronate și prezentate ca fiind credibile de către IA.
Ideea de a inventa o boală nu este nouă, însă experimentul a fost unul fără precedent în dimensiunea și impactul său. Osmanovic Thunström a dorit să pună în evidență riscurile asociate cu dezinformarea în era digitală, în special în contextul sfaturilor medicale, unde credibilitatea informațiilor este crucială pentru sănătatea publică.
Ce este bixonimania?
Bixonimania este o maladie fictivă care a fost creată pentru a demonstra cum modelele de IA pot prelua informații eronate din mediul online. Aceasta a fost descrisă ca o afecțiune oculară asociată cu expunerea prelungită la lumina albastră, un simptom comun în rândul utilizatorilor de dispozitive digitale. În ciuda caracterului său fictiv, bixonimania a fost tratată ca o afecțiune reală de către diverse chatboți și modele de IA, care au început să ofere sfaturi medicale și tratamente pentru această boală imaginară.
Experiența a început să devină îngrijorătoare atunci când articolele false despre bixonimanie au fost citate în literatura de specialitate, ceea ce sugerează că unii cercetători nu verifică întotdeauna sursele înainte de a le utiliza în studiile lor. Această situație subliniază riscurile pe care le prezintă IA atunci când nu este utilizată cu discernământ, mai ales în domeniul sănătății.
Dezinformarea și inteligența artificială
Dezinformarea online nu este o noutate, dar experimentul cu bixonimania a scos în evidență o problemă mai profundă: capacitatea IA de a răspândi informații false. Modelele de limbaj de mari dimensiuni (LLM) sunt antrenate pe vaste colecții de date de pe internet, ceea ce le poate face vulnerabile la propagarea dezinformării. În cazul bixonimaniei, modelele de IA au preluat informații false și le-au prezentat ca fiind reale, fără a avea capacitatea de a verifica veridicitatea acestora.
Experții în domeniul sănătății și tehnologiei au exprimat îngrijorări cu privire la acest fenomen. Alex Ruani, un cercetător doctorand în dezinformarea în domeniul sănătății, a declarat că „dacă procesul științific nu detectează și nu filtrează astfel de informații, suntem condamnați”. Aceasta subliniază necesitatea de a îmbunătăți algoritmii și protocoalele de verificare a informațiilor în sistemele de IA.
Experimentul Digi24.ro
În urma experimentului suedez, Digi24.ro a decis să își desfășoare propriul test, inventând o altă boală fictivă, „hemostafilidoză cronică”. Aceștia au interogat ChatGPT, un model de IA dezvoltat de OpenAI, pentru a obține informații despre tratamentele corespunzătoare acestei afecțiuni inexistente. Rezultatul a fost surprinzător: ChatGPT a prescris tratamente complexe, inclusiv antibiotice, fără a verifica dacă boala era reală sau nu.
Acest experiment a evidențiat nu doar vulnerabilitatea modelelor de IA, ci și riscurile potențiale pentru utilizatorii care caută informații medicale online. Dacă un utilizator ar fi urmat recomandările IA, ar fi putut ajunge să consume medicamente fără a avea un diagnostic real, ceea ce ar putea avea efecte negative asupra sănătății sale.
Implicarea specialiștilor și perspective viitoare
Experții în tehnologie și sănătate au început să acorde o atenție mai mare impactului pe care modelele de IA îl pot avea asupra sănătății publice. Pe măsură ce tehnologia avansează, este esențial să se dezvolte standarde stricte pentru verificarea informațiilor medicale generate de IA. De asemenea, este important ca utilizatorii să fie educați cu privire la riscurile dezinformării și să fie încurajați să consulte profesioniști calificați pentru informații medicale.
În plus, dezvoltatorii de IA trebuie să implementeze măsuri de siguranță mai bune, inclusiv algoritmi care să filtreze informațiile false și să ofere utilizatorilor sfaturi de încredere. Aceste măsuri sunt esențiale pentru a asigura că inteligența artificială poate fi un instrument util, nu o sursă de confuzie și dezinformare.
Concluzie
Experimentul bixonimaniei a subliniat riscurile dezinformării în era inteligenței artificiale și a evidențiat importanța verificării informațiilor în domeniul sănătății. Trecerea de la informația corectă la cea falsă este rapidă și poate avea consecințe grave pentru sănătatea publică. Este responsabilitatea cercetătorilor, dezvoltatorilor de IA și a utilizatorilor să colaboreze pentru a preveni răspândirea dezinformării și pentru a asigura că informațiile medicale sunt precise și de încredere.