Świat

Sztuczna inteligencja pomyliła twarze. Szokujące skutki w świecie wymiaru sprawiedliwości

2025-01-14

Autor: Agnieszka

W wyniku analizy policyjnych danych, aktów sądowych oraz rozmów z przedstawicielami wymiaru sprawiedliwości, odkryto niepokojące przypadki nadużycia technologii sztucznej inteligencji (AI) w procesach policyjnych.

Badania wykazały, że w ośmiu znanych przypadkach, policja w oparciu o identyfikację twarzy wykonaną przez AI, nie wykonała podstawowych czynności śledczych. Gdyby tylko sprawdziła alibi lub zebrała dodatkowe dowody, takich jak DNA czy odciski palców, te osoby mogłyby zostać uniewinnione jeszcze przed aresztowaniem.

Niestety, to nie tylko teoretyczne spekulacje. W sześciu przypadkach policja nie weryfikowała zeznań świadków, co prowadziło do niesłusznych aresztowań. Na przykład, jeden z mężczyzn został oskarżony o kradzież zegarka, mimo że jego tożsamość, ustalona przez AI, została podważona przez ochroniarza, który nie był obecny podczas kradzieży.

W kolejnych przypadkach, zdarzało się, że policyjni detektywi ignorowali dowody przytaczające wersję wydarzeń, które były sprzeczne z twierdzeniami AI. Jedna z aresztowanych kobiet była w zaawansowanej ciąży, jednak policja nie zwróciła na to uwagi podczas przeprowadzania aresztowania, co wzbudza pytania o rzetelność i profesjonalizm działań funkcjonariuszy.

Co jest jeszcze bardziej niepokojące, to skłonność do ślepego zaufania oraz władze AI w procesach decyzyjnych. Jak wykazały badania neurobiologów, ludzie mają tendencję do ufania wskazaniom systemów AI, co może prowadzić do błędnych ocen. Ta sytuacja rodzi poważne obawy dotyczące przyszłości technologii w kontekście praworządności i ochrony obywateli.

Dziennikarze apelują o większa transparentność użycia narzędzi AI przez policję, bo obecny stan rzeczy może prowadzić do niesłusznych aresztowań oraz naruszenia praw człowieka. Jak długo jeszcze technologie będą stały nad sprawiedliwością?