Tii minte cum Tom Cruise aresta criminali înainte de a comite infracţiuni? Poliţia britanică a încercat să facă un Minority Report folosind un algoritm de inteligenţă artificială.
Pentru asta au analizat datele a 3,5 milioane de oameni din bazele de date ale poliţiei. 13 milioane de dolari au fost investiţi în algoritmul care să prezică momentul în care cineva va face prima crimă sau chiar va recidiva.
Rezultatul a fost un fiasco total, cu o rată medie de succes de aproximativ 15%, mult sub intuiţia unui poliţist decent. Ca să parafrazez o expresie celebră, şi un ceas defect arată ora exactă de două ori pe zi.
Poliţiştii spun că sistemul a avut o eroare de cod, însă abandonarea completă a proiectului arată că problemele sunt mult mai profunde. Poate uneori e bine să laşi science-fiction-ul să rămână science-fiction.
Sociologul Silvia Lucican îţi explică de ce a eşuat proiectul britanic.
Silvia Lucican, Sociolog: Este dificil să facem predicţii în general când vine vorba de factorii umani. Suntem imprevizibili şi de multe ori acţionăm în lipsa unor motivaţii raţionale pe care, poate, inteligenţa artificială ar putea să le prezică, înţeleagă şi citească şi uneori facem lucruri fără să avem aceste explicaţii raţionale. Nu suntem fiinţe foarte raţionale, în ciuda aparenţelor.