Komputery mogą zastąpić sędziów. Wymiar sprawiedliwości – nie tylko w Polsce – boryka się z rozmaitymi problemami. Sprawy ciągnące się latami, przeciążeni sędziowie. W takich sytuacjach nie trudno o błędy. Komputery mogą pomagać w unikaniu niektórych typowych błędów, jakie zdarzają się sędziom. Pod pewnymi względami radzą sobie nawet lepiej od ludzi. Jak zauważają naukowcy z Massachusetts Institute of Technology (MIT), wielu specjalistów musi podejmować decyzje, które prowadzą do trudnych do przewidzenia wyników. Do takich osób należą między innymi sędziowie, którzy decydują o tym, czy oskarżona osoba może pozostać na wolności za kaucją – albo jaki ustanowić wyrok. Jednocześnie coraz więcej firm posługuje się komputerowymi programami do dokonywania wyborów, obarczonych dużym ryzykiem.Podobnie – w oparciu o różne dane na temat ludzkich zachowań – działają na przykład algorytmy filtrujące spam, podpowiadające produkty w sklepach internetowych czy podpowiadające tekst w czasie pisania na smartfonie. Na podstawie informacji uzyskanych od nowojorskich sędziów zespół z MIT opracował model pokazujący systemowe błędy, jakie pojawiają się w podejmowanych przez sędziów decyzjach odnośnie ryzyka ucieczki wypuszczanych za kaucją oskarżonych. Decyzje te są podejmowane w dużej mierze na podstawie różnych cech danej osoby, w tym rasy, wieku i wcześniejszego zachowania. Model znajduje błędyW badaniu uwzględniono prawie aż półtora miliona spraw, przy czym w około połowie z nich oskarżonego wypuszczono. Model wskazał, że aż 20 proc sędziów popełniało systemowe błędy w związku z przewidywaniem przyszłego zachowania wypuszczonych oskarżonych. Okazało się na przykład, że ponad 30 proc. decyzji było niezgodnych z możliwościami oskarżonych w kwestii zapłaty kaucji oraz z ryzyka, że nie pojawią się na rozprawie.Eksperymenty pokazały natomiast, że zastąpienie sędziów algorytmami poprawiłoby wyniki o około 20 proc.– Efekty zastąpienia ludzi algorytmami zależą od równowagi między tym, czy człowiek popełnia systematyczne błędy na podstawie dostępnych informacji dostępnych także dla algorytmu, a tym, czy dostrzega jakiekolwiek przydatne prywatne informacje – wyjaśnia Ashesh Rambachan, główny autor publikacji z badań.