Autentificarea a devenit o preocupare majoră în contextul dezvoltării rapide a IA, autorităţile fiind îngrijorate de proliferarea falsurilor care ar putea perturba societatea.
Potrivit companiei, clasificatorul de detectare a imaginilor de la OpenAI, care este în prezent în curs de testare, poate evalua probabilitatea ca o anumită imagine să provină de la unul dintre modelele generative AI ale companiei, cum ar fi DALL-E 3.
OpenAI a precizat că, în timpul testelor interne efectuate pe o versiune anterioară, instrumentul a detectat cu precizie aproximativ 98% din imaginile DALL-E 3, în timp ce a semnalat incorect mai puţin de 0,5% din imaginile care nu sunt de tip AI.
Cu toate acestea, compania a avertizat că imaginile DALL-E 3 modificate au fost mai greu de identificat şi că instrumentul semnalează în prezent doar aproximativ cinci până la 10 la sută din imaginile generate de alte modele AI, potrivit AFP.
De asemenea, OpenAI a declarat că va adăuga acum filigrane la metadatele imaginilor AI, pe măsură ce tot mai multe companii se vor înscrie pentru a respecta standardele Coaliţiei pentru Provenienţa şi Autenticitatea Conţinutului (C2PA).
C2PA este o iniţiativă a industriei tehnologice care stabileşte un standard tehnic pentru a determina provenienţa şi autenticitatea conţinutului digital, într-un proces cunoscut sub numele de filigranare.
Luna trecută, gigantul Facebook Meta a declarat că va începe să eticheteze materialele media generate de inteligenţa artificială începând cu luna mai, folosind standardul C2PA.
Google, un alt gigant al inteligenţei artificiale, s-a alăturat, de asemenea, iniţiativei.