18+   S-a mers prea departe? Porn AI poate genera imagini erotice cu persoane dezbrăcate

  • Porn deepfake sau pornografia falsă nu este o tehnologie nouă. După ChatGPT, Bing AI, DALL-E şi Midjourney, au apărut programe cu AI (ca Pornpen.AI) care pot genera fotografii erotice cu personaje dezbrăcate sau chiar cu orice persoană reală aflată în ipostaze indecente, fără consimţământ.
  • Inteligenţa artificială are impact şi asupra industriei porno - poate genera fotografii erotice cu grafică realistă şi chiar personaje similare cu persoane reale aflate în viaţă, însă fără consimţământul lor
  • Pornografia falsificată, indiferent de scopul ei, poate distruge vieţi pe plan profesional şi social.
  • Companiile din spatele programelor cu AI încearcă să prevină fenomenul, dar sunt numeroase site-uri independente ce nu pot fi controlate sau închise
  • O femeie din Australia a fost victima acestei tehnologii
  • „Nu poţi câştiga”, a spus victima. "Aceste imagini vor fi mereu acolo. E ca şi cum te-au ruinat pentru totdeauna".
  • utorităţile îndeamnă victimele acestor abuzuri să nu cadă pradă şantajului sau defăimării şi să apeleze la organele judiciare pentru a solicita ştergerea imaginilor cu pornografie falsificată.
Urmărește
7360 afișări
Imaginea articolului S-a mers prea departe? Porn AI poate genera imagini erotice cu persoane dezbrăcate

Imagini false generate de Pornpen.AI

Porn deepfake sau pornografia falsificată nu este o tehnologie nouă

Este o tehnologie de pornografie sintetică care este creată prin modificarea materialului pornografic deja existent prin aplicarea tehnologiei deepfake pe feţele actorilor.

Tehnologia a stârnit controverse, deoarece implică realizarea şi partajarea de videoclipuri reale cu persoane, chiar cu celebrităţi, fără consimţământ.

Pentru unii bărbaţi este folosită pentru răzbunare, pentru alţii mai timizi pentru satisfacerea dorinţei sexuale în plan personal şi intim. 

În iunie 2019 a fost lansată o aplicaţie numită DeepNude, capabilă să îndepărteze îmbrăcămintea din imaginile cu fotomodele reale. 

Pe 27 iunie, creatorii au eliminat aplicaţia, deşi continuă să existe diverse copii ale aplicaţiei, atât gratuite, cât şi contra cost, precum DeepNude.gg, unde utilizatorii pot dezbrăca femeile fie gratuit (dar rezultă imagini blurate), fie contra cost (rezultând imagini explicite, dar cu mici erori vizuale). 

Din 2022 sunt numeroase programe online cu AI care pot genera imagini erotice cu persoane reale, dar fără a avea consinţământul acestora

Între 2022 şi 2023 au apărut numeroase programe, inspirate după DALL-E şi Midjourney, dar care pot genera imagini false cu conţinut pornografic cu grafică realistă şi personaje în ipostaze erotice. 

Priintre aceste programe se numără Pornpen.AI care poate fi utilizat gratuit, dar şi contra-cost pentru utilizatorii care doresc să genereze mai rapid imaginile şi să editeze costumele şi accesoriile personajelor porno. 

În acest program, utilizatorii nu scriu comenzi, ci trebuie doar să aleagă cuvintele cheie/tag-urile privind culoarea pielii, sexul, etnia, culoarea ochilor, greutatea, înălţimea, mărimea sânilor, dimensiunile organelor genitale, coafura,  opţiunea privind prezenţa sau excesul de păr pubian, costumele, fundalul etc. 

Sociobits susţine că mai sunt încă alte şase programe cu inteligenţă artificială avansată - PornJourney, Deepswap.ai, DeepNude.gg, Reface Porn, myraah.io, OnlyFake etc.

9News şi AP News avertizează că inteligenţa artificială a mers prea departe, iar o femeie a fost victima unor fotografii erotice false cu ea. 

Pornografia falsă şi neconsensuală, chiar şi dacă este utilizată în scop personal, intim, fără a o da publicităţii,  dăunează în primul rând femeilor pe plan profesional şi social. 

„Realitatea este că tehnologia va continua să prolifereze, va continua să se dezvolte şi va continua să devină la fel de uşor ca apăsarea butonului”, a declarat Adam Dodge, fondatorul EndTAB, un grup care oferă cursuri despre abuzul sexual cauzat de tehnologie. 

„Şi atâta timp cât se va întâmpla asta, oamenii vor continua, fără îndoială, să folosească abuziv această tehnologie pentru a le face rău altora, în primul rând prin violenţă sexuală online, pornografie falsificată şi imagini false nud”.

În urma procesului de generare, imaginile rezultate sunt marcate de AI cu logo-ul programului folosit sau a companiei dezvoltatoare, ceea ce atestă caracterul fals al acestora, iar mai departe este răspunderea utilizatorului dacă le va îndepărta sau le va menţine în cazul în care  le publică în mediul online.  

În România sunt deja legi care pot pedepsi utilizatorii cu 2 ani de închisoare pentru imagini publicate în scop defăimător şi dacă nu specifică că acestea sunt generate de programe virtuale. 

Autorităţile se tem că hackerii ar putea folosi imaginile produse cu inteligenţa artificială cu scopul de a defăima sau şantaja persoane reale. 

 

„Nu poţi câştiga”

Noelle Martin, din Perth, Australia, a experimentat groaza de a fi victima acestei tehnologii. 

Tânăra de 28 de ani a găsit imagini porno false cu ea însăşi în urmă cu 10 ani, când, de curiozitate, într-o zi, a folosit Google pentru a căuta o imagine cu ea însăşi.

Până în ziua de azi, Martin spune că nu ştie cine a creat imaginile false sau videoclipurile cu ea întreţinând un act sexual pe care le-a găsit mai târziu.

Ea bănuieşte că cineva probabil a făcut o fotografie postată pe pagina ei de socializare sau în altă parte şi a transformat-o într-o starletă porno în mod involuntar. 

Îngrozită,  Martin a contactat diferite site-uri web timp de câţiva ani în efortul de a elimina imaginile. „Nu poţi câştiga”, a spus Martin.

"Aceste imagini vor fi mereu acolo. E ca şi cum te-au ruinat pentru totdeauna".

Cu cât vorbea mai mult, a spus ea, cu atât problema a escaladat mai mult.


Platformele încearcă să limiteze funcţia, dar sunt numeroase site-uri independente ce nu pot fi controlate 

Între timp, unele programe cu AI limitează deja accesul la generarea de imagini explicite.

OpenAI, compania care a creat ChatGPT şi DALL-E, susţine că a eliminat conţinutul explicit din datele folosite pentru a antrena sistemul de generare de imagini DALL-E, care limitează capacitatea utilizatorilor de a crea imagini erotice. 

Compania filtrează, de asemenea, solicitările şi susţine că blochează utilizatorii care încearcă să genereze imagini erotice cu celebrităţi şi politicieni. 

Midjourney, un alt program cu AI care generează imagini, blochează utilizarea anumitor cuvinte cheie şi încurajează utilizatorii să semnaleze moderatorilor imaginile care încalcă regulile comunităţii şi programului găzduit pe Discord. 

Dar mai sunt numeroase site-uri gratuite şi contra cost care pot genera imagini erotice fără consinţământ, iar în prezent, autorităţile nu le pot controla. Acestea pot fi închise numai dacă conţine material de pornografie infantilă. 

Victimele acestui tip de abuz pot doar să solicite ştergerea imaginilor cu ajutorul legilor privind drepturile de autor -  Digital Millennium Copyright Act (DMCA) în Statele Unite, respectiv European Copyright Directive (EUCD) în Uniunea Europeană, iar în ultimă instanţă,  pot să dea în judecată site-urile respective pentru a cere daune morale. 

Pentru cele mai importante ştiri ale zilei, transmise în timp real şi prezentate echidistant, daţi LIKE paginii noastre de Facebook!

Urmărește Mediafax pe Instagram ca să vezi imagini spectaculoase și povești din toată lumea!

Răspunde pe site-urile Aleph News, Mediafax, Ziarul Financiar și pe paginile noastre de social media - ȘTIU și Aleph News. Vezi răspunsul la Știu, de la ora 19.55, Aleph News.

Conținutul website-ului www.mediafax.ro este destinat exclusiv informării și uzului dumneavoastră personal. Este interzisă republicarea conținutului acestui site în lipsa unui acord din partea MEDIAFAX. Pentru a obține acest acord, vă rugăm să ne contactați la adresa vanzari@mediafax.ro.

 

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.mediafax.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi aici