23,36 lei/l Benzină la 23,36 lei/litru mâine după ANRE cu +0,02 lei, motorină stabilă 20,16 lei/l pe piața carburanților 1.000 Peste 1.000 polițiști cu 400 mașini mobilizați de MAI în stradă pentru viscol, 5.400 apeluri 112 în 24 ore 400 Peste 400 salvatori și pompieri cu 145 unități mobilizați IGSU în sud pentru deblocări nămeți, 3 vehicule salvate 60.000 $ Pasageră străină prinsă cu 60.000 dolari ascunși în haine pe Aeroport Chișinău, ridicați de Poliția de Frontieră
Platforma Google, acuzată că induce în eroare utilizatorii. Avertismentele pentru sfaturile medicale generate cu AI, greu de observat

Google îi expune pe oameni riscului de a fi afectați, diminuând importanța avertismentelor de siguranță care semnalează că sfaturile medicale generate de inteligența artificială ar putea fi greșite, scrie adevarul.ro.

Foto: Profimedia

Atunci când răspunde la întrebări despre subiecte sensibile, precum sănătatea, compania susține că AI Overviews — rezumatele generate de AI care apar deasupra rezultatelor căutării — îi încurajează pe utilizatori să solicite ajutor de specialitate, în loc să se bazeze exclusiv pe aceste sinteze. „AI Overviews vor informa oamenii atunci când este important să solicite sfatul unui expert sau să verifice informațiile prezentate”, a transmis Google, potrivit The Guardian.

Însă o analiză realizată de The Guardian a constatat că firma nu include astfel de avertismente atunci când utilizatorilor li se afișează inițial informații medicale.

Google afișează un avertisment doar dacă utilizatorii aleg să solicite informații suplimentare despre sănătate și apasă pe butonul „Show more” („Afișează mai mult”). Chiar și atunci, etichetele de siguranță apar abia după toate informațiile medicale suplimentare generate cu ajutorul AI și sunt afișate cu un font mai mic și mai deschis la culoare.

„Aceste informații au doar scop informativ”, arată avertismentul afișat celor care accesează detaliile suplimentare după ce au citit rezumatul inițial și ajung la finalul secțiunii AI Overview. „Pentru sfaturi medicale sau un diagnostic, consultați un specialist. Răspunsurile AI pot conține erori.”

Google nu a negat faptul că avertismentele nu apar atunci când utilizatorii primesc pentru prima dată informații medicale și nici că acestea sunt afișate sub rezumatele AI și cu un font mai mic și mai deschis. AI Overviews „încurajează oamenii să solicite sfatul unui profesionist din domeniul medical” și menționează frecvent necesitatea de a cere asistență medicală direct în rezumat „atunci când este cazul”, a declarat un purtător de cuvânt al companiei.

Experți în inteligență artificială și reprezentanți ai pacienților, cărora le-au fost prezentate concluziile The Guardian, au afirmat că sunt îngrijorați. Avertismentele au un rol esențial, spun ei, și ar trebui să fie afișate vizibil încă din momentul în care utilizatorii primesc informații medicale.

„Absența avertismentelor atunci când utilizatorilor li se furnizează inițial informații medicale creează mai multe riscuri majore”, a declarat Pat Pataranutaporn, profesor asistent, tehnolog și cercetător la Massachusetts Institute of Technology (MIT), expert recunoscut la nivel mondial în AI și interacțiunea om–calculator.

Gina Neff, profesor de inteligență artificială responsabilă la Queen Mary University of London, a afirmat că „problema rezumatelor AI greșite este una de design” și că responsabilitatea aparține Google. „AI Overviews sunt concepute pentru viteză, nu pentru acuratețe, iar acest lucru duce la erori în informațiile despre sănătate, ceea ce poate fi periculos.”

Sonali Sharma, cercetător în cadrul centrului pentru AI în medicină și imagistică (AIMI) al Universității Stanford, a declarat: „Problema majoră este că aceste AI Overviews de la Google apar chiar în partea de sus a paginii de căutare și oferă adesea ceea ce pare a fi un răspuns complet la întrebarea utilizatorului, într-un moment în care acesta încearcă să obțină informații și un răspuns cât mai rapid.

Pentru mulți oameni, faptul că acel rezumat unic apare imediat creează un sentiment de siguranță care descurajează căutările suplimentare sau parcurgerea întregului rezumat și accesarea opțiunii «Show more», unde ar putea apărea un avertisment. Ceea ce cred că poate duce la consecințe reale este faptul că AI Overviews pot conține informații parțial corecte și parțial incorecte, iar devine foarte dificil să distingi ce este exact și ce nu, dacă nu ești deja familiarizat cu subiectul.”

Un purtător de cuvânt al Google a declarat: „Este incorect să se sugereze că AI Overviews nu îi încurajează pe oameni să solicite sfatul unui profesionist medical. Pe lângă un avertisment clar, AI Overviews menționează frecvent necesitatea de a solicita asistență medicală direct în cadrul rezumatului, atunci când este cazul.”

Tom Bishop, directorul departamentului de informare a pacienților la organizația caritabilă Anthony Nolan, specializată în cancer de sânge, a cerut măsuri urgente. „Știm că dezinformarea este o problemă reală, dar când vine vorba despre dezinformarea în domeniul sănătății, aceasta poate fi cu adevărat periculoasă”, a spus Bishop.

„Acel avertisment trebuie să fie mult mai vizibil, astfel încât oamenii să se oprească o clipă și să se întrebe: «Este ceva ce trebuie să verific cu echipa mea medicală înainte să acționez? Pot lua aceste informații de bune sau trebuie să le analizez mai atent și să văd cum se aplică situației mele medicale specifice?» Pentru că aici este cheia.”

El a adăugat: „Mi-aș dori ca acest avertisment să fie chiar în partea de sus. Să fie primul lucru pe care îl vezi. Și, ideal, să aibă același font și aceeași dimensiune ca restul informațiilor afișate, nu să fie ceva mic și ușor de trecut cu vederea.”


Pub