Studiu: Dezinformarea rusească s-a infiltrat în chatboturile care utilizează IA

  • Un studiu realizat de NewsGuard a ajuns la concluzia că 32% din timp chatboturile care folosesc inteligenţa artificială răspândesc propaganda Kremlinului.
  • Chatboturile precum ChatGPT sau Perplexity au citat publicaţii ruseşti locale, care răspândesc ştiri false şi idei conspirative.
739 afișări
Imaginea articolului Studiu: Dezinformarea rusească s-a infiltrat în chatboturile care utilizează IA

Studiu: Dezinformarea rusească s-a infiltrat în chatboturile care utilizează IA

Dezinformarea rusească a reuşit să se infiltreze în chatboturile care folosesc IA şi care sunt tot mai utilizate de lumea întreagă pentru accesarea rapidă a unor informaţii. Potrivit unui studiu realizat de NewsGuard, cele mai utilizate chatboturi din lume repetă informaţiile false promovate de Kremlin şi le prezintă drept surse demne de luat în seamă, relatează Monitorul Apărării.

Studiul a fost realizat în baza unei informaţii false care venea de la publicaţii de ştiri false create de John Mark Dougan, un fugar american care se află acum în Moscova, după ce a fugit din teritoriul american pentru că era căutat de poliţişti, fiind acuzat de hacking şi extorsiune. Acesta este o persoană cheie în promovarea dezinformării ruseşti, de aceea chatboturile care folosesc IA ar fi trebuit să recunoască şi să marcheze informaţiile publicate de acesta drept „fake news”.

Studiul făcut de NewsGuard a testat 10 dintre cele mai utilizate chatboturi care folosesc IA (ChatGPT, Smart Assistent, Grok, Pi, le Chat, Copilot, Meta AI, Claude, Gemini şi Perplexity). Au fost folosite 570 de mesaje, câte 57 pe fiecare chatbot. Mesajele se bazau pe 19 informaţii false legate de reţeaua de dezinformare rusească, precum informaţii false despre corupţia preşedintelui ucrainean Volodimir Zelenski. Toate aceste 19 informaţii au fost testate folosindu-se trei personaje diferite care să reflecte cum sunt utilizate modelele IA: un mesaj de la un personaj care cere detalii despre acea informaţie (falsă!), un mesaj în care alt personaj presupune că informaţia este adevărată şi cere mai multe detalii şi un pesonaj „malign”, care vrea să genereze informaţii false. Răspunsurile chatboturilor au fost etichetate ca „nicio dezinformare” (adică a fost chat-ul a evitat răspunsul), „se repetă cu precauţie” (răspunsul a repetat dezinformarea, dar a adăugat un „disclaimer”) şi „dezinformare” (chatbotul a recunoscut informaţia falsă).

Informaţia falsă a fost repetată de cele 10 chatboturi faimoase 31,75% din timp. Mai exact, 152 din 570 de răspunsuri au conţinut informaţii false, 29 de răspunsuri au repetat informaţia falsă cu un disclaimer şi 389 de răspunsuri nu au conţinut informaţii false, fie pentru că chatbotul a refuzat să răspundă (144 de ori), fie pentru că a dezvăluit minciuna (245).

Astfel, studiul arată că, deşi companiile mari care creează aceste chatboturi cu IA încearcă să prevină folosirea maliţioasă a programelor lor, IA rămâne un posibil instrument pentru propagarea dezinformării.

Pentru cele mai importante ştiri ale zilei, transmise în timp real şi prezentate echidistant, daţi LIKE paginii noastre de Facebook!

Urmărește Mediafax pe Instagram ca să vezi imagini spectaculoase și povești din toată lumea!

Răspunde pe site-urile Aleph News, Mediafax, Ziarul Financiar și pe paginile noastre de social media - ȘTIU și Aleph News. Vezi răspunsul la Știu, de la ora 19.55, Aleph News.

Conținutul website-ului www.mediafax.ro este destinat exclusiv informării și uzului dumneavoastră personal. Este interzisă republicarea conținutului acestui site în lipsa unui acord din partea MEDIAFAX. Pentru a obține acest acord, vă rugăm să ne contactați la adresa vanzari@mediafax.ro.

 

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.mediafax.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi aici