Google a dezvăluit joi familia de modele AI PaliGemma 2, capabilă să analizeze imagini şi să identifice emoţii. Evident, are nevoie de ajustări suplimentare, însă experţii critică deja această tehnologie, considerând-o o extrapolare riscantă şi lipsită de bază ştiinţifică solidă.
Sandra Wachter, profesor la Oxford Internet Institute, a declarat că încercarea de a „citi” emoţiile este problematică şi comparabilă cu „consultarea unui glob de cristal”.
La rândul său, Mike Cook, cercetător în domeniul AI, a vorbit despre complexitatea emoţiilor umane şi imposibilitatea detectării lor generalizate prin intermediul trăsăturilor faciale.
Studiile anterioare au demonstrat că modelele de analiză emoţională pot fi inexacte şi părtinitoare. Cercetări de la MIT au arătat că astfel de sisteme tind să favorizeze expresii faciale specifice, precum zâmbetul, şi să atribuie mai multe emoţii negative persoanelor de culoare comparativ cu cele albe.
Google susţine că a realizat teste extinse pentru a evalua prejudecăţile demografice ale PaliGemma 2, utilizând benchmark-uri precum FairFace. Totuşi, compania nu a dat detalii complete despre metodologia acestor teste, iar unele voci critice consideră FairFace o măsură insuficientă.
PaliGemma 2 este deja disponibilă publicului pe platforme precum Hugging Face. Experţii avertizează că utilizarea greşită a acestor modele ar putea exacerba discriminarea, în special împotriva grupurilor marginalizate.
Google susţine că a integrat măsuri etice, însă unii specialişti, precum Wachter, cer o abordare un pic mai responsabilă: „Inovaţia responsabilă presupune analizarea consecinţelor din prima zi şi pe tot parcursul ciclului de viaţă al produsului”.