Sztuczna inteligencja w natarciu! Ale co się stanie, gdy pomyli twarze?
2025-01-14
Autor: Magdalena
Najnowsze raporty dotyczące użycia technologii sztucznej inteligencji w identyfikacji twarzy pokazują przerażające skutki błędów algorytmów. Z analizy przeprowadzonej przez dziennikarzy wynika, że w kilku przypadkach policja bezkrytycznie ufała decyzjom podejmowanym przez AI, co doprowadziło do niesłusznych aresztowań.
Dziennik szczegółowo przeanalizował dane policyjne, protokoły sądowe oraz rozmowy z przedstawicielami organów ścigania, prokuratorami i prawnikami. Niestety, okazuje się, że w wielu sprawach policja nie potwierdzała alibi podejrzanych, a nawet ignorowała kluczowe dowody, takie jak ślady DNA i odciski palców.
W ośmiu znanych przypadkach Policja opierała swoje decyzje na błędnych identyfikacjach AI, co skutkowało aresztowaniem osób, które można by było wykluczyć na podstawie zwykłych działań śledczych. Gdyby funkcjonariusze sprawdzili alibi lub porównali dowody, prawdopodobnie uniknęliby naruszenia czyichś praw.
Zdarzyły się sytuacje, w których policja aresztowała ludzi na podstawie wyników AI, nie zbierając przy tym najważniejszych dowodów. Przykładem może być sprawa dotycząca sfałszowanego czeku, gdzie zatrzymano podejrzanego, ale nie sprawdzono jego kont bankowych.
Również w sprawie aresztowania ciężarnej kobiety za kradzież samochodu nie potwierdzono, że mogła ona być sprawczynią przestępstwa. Świadkowie i nagrania monitoringu nie wskazywały na jej obecność przy zdarzeniu, jednak technologia AI zidentyfikowała ją jako możliwą sprawczynię.
W szóstym z analizowanych przypadków policja zignorowała świadków, co doprowadziło do całkowitego pomylenia tożsamości podczas identyfikacji. Pracownik ochrony, który miał możliwość potwierdzenia, że podejrzany nie był w sklepie w czasie kradzieży, nie został wysłuchany.
Eksperci oceniają, że technologie rozpoznawania twarzy mogą działać prawidłowo w kontrolowanych warunkach laboratoryjnych, jednak poza nimi ich skuteczność nie została dotąd odpowiednio przetestowana. Katie Kinsey, badaczka z NYU, podkreśla potrzebę przeprowadzenia niezależnych badań, aby ocenić wiarygodność używanych systemów wcześniejszego rozpoznawania.
Dodatkowo, badania neurobiologiczne pokazują, że użytkownicy AI mogą mieć tendencję do bezrefleksyjnego ufania algorytmom, co prowadzi do błędnych osądów. Uczestnicy badania często wybierali odciski palców, które komputer wskazał jako najbardziej podobne, zamiast obiektywnie oceniać dostępne dane.
Z tego powodu istotne jest, aby instytucje ścigania przyjrzały się używaniu technologii AI w kontekście prawidłowości i rzetelności, aby uniknąć kolejnych skandali i niesłusznych oskarżeń.