Общество

Человек разбирается в правосудии не лучше, чем машина

18 января 2018 0

правосудие, закон, суд

 

Как выяснили ученые, машина обладает той же степенью предвзятости в отношении чернокожего населения, что и человек.

Судить нельзя помиловать

Правосудие — вещь крайне противоречивая. С одной стороны, статистика показывает, что, по крайней мере, 1% осужденных преступников на самом деле оказывались невиновными. С другой стороны, даже если человек действительно совершил проступок, следует ли его наказывать немедленно или можно отпустить под залог? С подобными сложными моральными выборами, стоящими в основе правосудия, ежедневно сталкиваются как судьи, так и присяжные.

Есть мнение, что человек при принятии столь важных решений не должен опираться на чувства и эмоции. У каждого дела есть набор собранных данных и свидетельств, на основе которых и должен выноситься окончательный вердикт. В таком случае машинное вычисление должно прекрасно справляться с этой задачей, но, как оказалось, компьютерный алгоритм также плох в достижении максимальной точности в достижении правосудия.

Машина VS Человек

Джулия Дрессель (Julia Dressel), специалист по информатике Дартмутского колледжа, заинтересовалась вопросом: лучше ли машина оценивает риск совершения повторного преступления человеком, отпущенным под залог, чем человек?

Судьи оценивают этот риск на основе имеющихся у них данных о подсудимом. С 1980-х годов в США сотрудники мест заключения стали собирать информацию об обвиняемом: финансовое и семейное положение, отношения с друзьями, связь с криминальными историями и так далее. Эти данные сегодня собираются не просто в массивных бумажных папках, а в виде машинной информации, которая использует сложные алгоритмы вычисления риска. И, нужно отметить, передача подобных полномочий компьютеру вызывает опасения у правозащитников, не имеющих доступ к часто закрытой информации об используемой системе вычислений.

Для своего исследования Дрессель выбрала систему Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), в которой часто допускалась преступная неточность. За основу были взяты её оценки риска повторного правонарушения в течение двух лет для 10000 обвиняемых, которые ожидали суда в штате Флорида. Затем Джулия наняла 400 волонтеров, выдала им 50 профилей обвиняемых и попросила так же, как компьютер, предсказать, совершат ли подсудимые новые правонарушения в течение двух лет.

В итоге выяснилось, что человек и машина имели фактически одинаковое количество правильных прогнозов — между 63% и 67%, средняя точность составила 65%, соответственно. Более того, в обоих случаях можно наблюдать предвзятость в отношении чернокожих подсудимых. Конечно, следует учитывать факт того, что волонтеры не были профессионалами, но они ничем не хуже присяжных, принимающих решение, или алгоритмов, положенных в основу компьютерных вычислений.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Рассказать друзьям

0 Комментариев

Подписаться на рассылку

Комментарии

Войти с помощью 

Присоединяйтесь к нам в социальных сетях

В наших группах вы можете узнать много нового и интересного, а так же - принять участие в опросах и конкурсах

Присоединиться
Присоединиться