Guvernul chinez, acuzat că testează pe uiguri o tehnologie inteligentă de recunoaştere a emoţiilor

  • Uigurii din Xinjiang sunt urmăriţi printr-un sistem de camere menite să detecteze emoţiile oamenilor.
  • Zona găzduieşte, de asemenea, „centre de reeducare” foarte controversate, numite lagăre de detenţie de înaltă securitate.
  • „Autorităţile plasează acum coduri QR pe uşile caselor, astfel încât să poată şti cu uşurinţă cine ar trebui să fie acolo şi cine nu”.
  • Uigurii trebuie să furnizeze în mod obişnuit mostre de ADN autorităţilor locale şi sunt supuşi scanărilor digitale.
Urmărește
533 afișări
Imaginea articolului Guvernul chinez, acuzat că testează pe uiguri o tehnologie inteligentă de recunoaştere a emoţiilor

Sistem de camere menit să urmărească uigurii din Xinjiang

Un sistem de camere care foloseşte inteligenţa artificială şi recunoaşterea facială menit să detecteze emoţiile a fost testat pe uiguri din Xinjiang, relatează BBC.

Xinjiang găzduieşte 12 milioane de uiguri minoritari etnici, dintre care majoritatea sunt musulmani.

Cetăţenii din provincie sunt supravegheaţi zilnic. Zona găzduieşte, de asemenea, „centre de reeducare” foarte controversate, numite lagăre de detenţie de înaltă securitate de către grupurile pentru drepturile omului, unde se estimează că au fost reţinute peste un milion de persoane.

Beijingul a susţinut întotdeauna că supravegherea este necesară în regiune, deoarece spune că separatiştii care doresc să-şi înfiinţeze propriul stat au ucis sute de oameni în atacuri teroriste.

Un inginer de software a susţinut că a instalat astfel de sisteme în secţiile de poliţie din provincie.

Bărbatul a fost de acord să discute sub condiţia anonimatului, pentru că se teme pentru siguranţa sa. Nici compania la care a lucrat nu este dezvăluită.

Acesta a arătat cinci fotografii ale deţinuţilor uiguri despre care a afirmat că au fost testaţi cu sistemul de recunoaştere a emoţiilor.

"Guvernul chinez foloseşte uigurii ca subiecţi de testare pentru diferite experimente la fel cum şobolanii sunt folosiţi în laboratoare. Am plasat camera de detectare a emoţiilor la 3m de subiect. Este similar cu un detector de minciuni, dar tehnologie mult mai avansată.", a spus omul.

El a furnizat dovezi despre modul în care sistemul este programat pentru a detecta şi analiza chiar modificări minuscule ale expresiilor faciale şi ale porilor pielii.

Potrivit afirmaţiilor sale, software-ul creează o diagramă circulară, segmentul roşu reprezentând o stare de spirit negativă sau anxioasă.

El a susţinut că software-ul este destinat „judecăţii prealabile fără nicio dovadă credibilă”.

Ambasada Chinei la Londra nu a răspuns la întrebările referitoare la utilizarea software-ului de recunoaştere emoţională din provincie, dar a menţionat că: „Drepturile politice, economice şi sociale şi libertatea credinţei religioase în toate grupurile etnice din Xinjiang sunt pe deplin garantate. Oamenii trăiesc în armonie indiferent de mediul lor etnic şi se bucură de o viaţă stabilă şi paşnică, fără restricţii la libertatea personală”.

Potrivit lui Darren Byler, de la Universitatea din Colorado, uigurii trebuie să furnizeze în mod obişnuit mostre de ADN oficialilor locali, să fie supuşi scanărilor digitale şi majoritatea trebuie să descarce o aplicaţie guvernamentală de telefonie, care colectează date, inclusiv liste de contacte şi mesaje text.

Majoritatea datelor sunt introduse într-un sistem informatic numit Platforma Integrată de Operaţiuni Comune, despre care Human Rights Watch susţine că înregistrează comportamentul unui presupus suspect.

"Sistemul colectează informaţii despre zeci de tipuri diferite de comportamente perfect legale, inclusiv lucruri precum dacă oamenii ieşeau pe uşa din spate în loc de uşa din faţă, dacă puneau benzină într-o maşină care nu le aparţinea", a explicat un reprezentant al Human Rights Watch.

„Autorităţile plasează acum coduri QR pe uşile caselor, astfel încât să poată şti cu uşurinţă cine ar trebui să fie acolo şi cine nu”.

De multă vreme s-a vorbit despre cât de strâns legate sunt firmele de tehnologie de stat. Grupul de cercetare IPVM din SUA susţine că a descoperit dovezi care sugerează că produsele de recunoaştere facială au fost concepute special pentru a identifica oamenii uiguri au fost produse de anumite companii.

Un brevet depus în iulie 2018 de Huawei şi Academia de Ştiinţe din China descrie un produs de recunoaştere a feţei care este capabil să identifice persoanele pe baza etniei lor.

Huawei a spus ca răspuns „nu a acceptat utilizarea tehnologiei pentru a discrimina sau a asupri membrii vreunei comunităţi” şi că este „independentă de guvern” oriunde a funcţionat.

Grupul a găsit, de asemenea, un document care pare să sugereze că firma dezvoltă tehnologie pentru aşa-numitul sistem One Person, One File.

"Pentru fiecare persoană, guvernul stochează informaţiile personale, activităţile politice, relaţiile ... orice ar putea oferi o perspectivă asupra modului în care se comportă persoana respectivă şi ce fel de ameninţare ar putea reprezenta", a spus Conor Healy, IPVM.

Pentru cele mai importante ştiri ale zilei, transmise în timp real şi prezentate echidistant, daţi LIKE paginii noastre de Facebook!

Urmărește Mediafax pe Instagram ca să vezi imagini spectaculoase și povești din toată lumea!

Răspunde pe site-urile Aleph News, Mediafax, Ziarul Financiar și pe paginile noastre de social media - ȘTIU și Aleph News. Vezi răspunsul la Știu, de la ora 19.55, Aleph News.

Conținutul website-ului www.mediafax.ro este destinat exclusiv informării și uzului dumneavoastră personal. Este interzisă republicarea conținutului acestui site în lipsa unui acord din partea MEDIAFAX. Pentru a obține acest acord, vă rugăm să ne contactați la adresa vanzari@mediafax.ro.

 

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.mediafax.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi aici