Хронологија на една системска неправда. Кога во јануари 2020 година, Роберт Вилијамс Афроамериканец од Детроит бил уапсен пред неговото семејство, технолошката заедница и американското општество се соочија со еден од најголемите предизвици. Тоа е првиот документиран случај во САД на неправедно апсење предизвикано од грешка на алгоритам за препознавање лица. Шест години подоцна, во март 2026 година, случајот на 50-годишната жена од Тенеси, која провела шест месеци во затвор и ја изгубила целокупната егзистенција поради слична грешка, претставува уште една потврда дека лекцијата сеуште не е научена.
Техничката заднина: „Црната кутија“ на одлучувањето
Проблемот со вештачката интелигенција (ВИ) во правосудниот систем не е само во евентуална грешка во кодот, туку во проблемот наречен „Црна кутија“ (Black Box). Повеќето алгоритми што ги користат полициските служби се сопственост на приватни компании, а нивниот начин на работа е строга деловна тајна. Кога софтверот ќе „го впери прстот“ кон некого, ниту полицијата, ниту одбраната честопати не знаат дали е тоа стопроцентно точна одлука. Ова создава опасен преседан при што математичката пресметка станува примарен „сведок“, без можност за негово вкрстено испрашување.
Научниот доказ: Алгоритамска пристрасност
Истражувањата на Националниот институт за стандарди и технологија на САД (NIST) научно потврдија дека овие системи страдаат од алгоритамска пристрасност (Algorithmic Bias). Она што е загрижува е дека стапката на грешки е многу пати поголема кај лица со потемна кожа или специфични етнички карактеристики. Причината за тоа се алгоритмите кои се тренирани на бази на податоци кои не се доволно диверзификувани, што доведува до „дигитален расизам“ вграден во самата логика на машината.
Европски искуства: Случајот во Холандија
Иако Европа има построги регулативи како што е GDPR, и таа не е исклучок. Во 2020 година, холандската полиција неправедно уапсила маж врз основа на заматена снимка од надзорна камера споредена со пасошка база на податоци. Она што е особено релевантно е дека и во овој случај жртвата била особа со потемна боја на кожата (маж со потекло од поранешна југословенска република). Холандскиот орган за заштита на податоци (Autoriteit Persoonsgegevens) го оцени системот како „дискриминаторски и недоверлив“. Овој случај докажа дека не мора да сте Афроамериканец за алгоритмот да ве означи како криминалец – доволно е вашето лице да отстапува од програмираниот „стандард“ на кој е тренирана вештачката интелигенција.
Од пребарување до пресуда: Прекршување на презумпцијата на невиност
Клучната грешка на институциите е неразликувањето на пребарувањето од идентификацијата. ВИ не го „препознава“ лицето – таа врши математичка споредба на вектори и нуди листа на кандидати со одреден процент на сличност. Грешката се случува кога истражителите го третираат првиот резултат од компјутерот како непобитен форензички доказ. Со ова, во дигиталната ера, се прекршува основниот правен принцип – презумпцијата на невиност. Наместо државата да докажува вина, обвинетиот е принуден да докажува дека „не е тој на сликата“.
Овие случаи јасно укажуваат на тоа дека ВИ може да биде моќен асистент, но таа никогаш не смее да биде конечен судија. Овие инциденти беа клучни во формирањето на EU AI Act, првиот сеопфатен закон кој предвидува строги ограничувања за биометријата. Концептот Human-in-the-loop (човек во контролниот круг) мора да биде законска обврска. Секоја одлука на алгоритмот мора да помине низ строг човечки филтер и дополнителни материјални докази. Ефикасноста на технологијата не смее да се плаќа со цената на човечката слобода и правда.
