Un avocat şi-a distrus reputaţia într-o sală de judecată din New York, păcălit de ChatGPT: a greşit citând sentinţe false

Un avocat s-a bazat pe inteligenţa artificială, dar a citat şapte sentinţe false în cazuri care nu au existat niciodată, după cum a constatat judecătorul.

Urmărește
3029 afișări
Imaginea articolului Un avocat şi-a distrus reputaţia într-o sală de judecată din New York, păcălit de ChatGPT: a greşit citând sentinţe false

30 de carieră criminalistică onestă distrusă de o utilizare stângace a tehnologiei ChatGPT pentru a argumenta un recurs la tribunalul din Manhattan pentru Roberto Mata, un pasager al unui zbor Avianca care acuză compania aeriană columbiană, după ce a fost rănit la genunchi de un cărucior de mâncare în timpul unei călătorii din El Salvador la New York.

Avocatul lui Mata, Steven Schwartz, a răspuns companiei Avianca făcând trimitere la val de precedente - de la dosarul Martinez împotriva Delta Airlines până la acel Zicherman v. Korean Air - în care instanţele au dat dreptate pasagerilor şi au respins obiecţiile companiilor aeriene.

Negăsind nicio confirmare a cazurilor citate şi presat de avocaţii Avianca, judecătorul Kevin Castel i-a cerut lui Schwartz detaliile cazurilor. Avocatul, care se bazase orbeşte pe ChatGPT pentru a investiga cazul, a pus din nou la îndoială inteligenţa artificială care i-a oferit datele procedurilor, a indicat instanţele care s-au pronunţat, chiar a furnizat numărul de sentinţe.

Chiar şi aşa, însă, judecătorul nu a găsit nimic. În faţa solicitării de a expune textul integral al documentelor citate, ChatGPT a recunoscut în cele din urmă că a inventat. A mai spus că îi pare sincer rău pentru neplăcerile cauzate.

Şapte cazuri, toate inventate de la zero. În acel moment, bietul avocat Steven a trebuit să recunoască că s-a bazat în totalitate pe ChatGPT. Nu o mai folosise niciodată şi nu ştia că suferă de ceea ce tehnicienii numesc „halucinaţii”: un termen sugestiv, dar înşelător pentru că îi conferă o conotaţie umană. În realitate, acestea sunt pur şi simplu răspunsuri false aleatoriu, inventate, pe care inteligenţa artificială (AI) le amestecă cu informaţiile bine fundamentate pe care le oferă.

În realitate, Schwartz a fost pur şi simplu nesăbuit: oricine s-a documentat pe ChatGPT ştie din prima zi că ceea ce numim inteligenţă este, în realitate, un model probabilistic bazat pe un mecanism statistic şi pe o bază de date imensă care include totul, bine şi rău, care circulă pe internet. ChatGPT reuşeşte să producă texte sensibile deoarece după fiecare cuvânt ghiceşte probabil expresia care va urma. În cele mai multe cazuri, oferă informaţii concrete, dar nu întotdeauna.

 

Pentru cele mai importante ştiri ale zilei, transmise în timp real şi prezentate echidistant, daţi LIKE paginii noastre de Facebook!

Urmărește Mediafax pe Instagram ca să vezi imagini spectaculoase și povești din toată lumea!

Conținutul website-ului www.mediafax.ro este destinat exclusiv informării și uzului dumneavoastră personal. Este interzisă republicarea conținutului acestui site în lipsa unui acord din partea MEDIAFAX. Pentru a obține acest acord, vă rugăm să ne contactați la adresa vanzari@mediafax.ro.

 

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.mediafax.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi aici