«Даже несовершенные алгоритмы улучшают судебную систему»

Фото: EAST NEWS

Предвзятость ИИ-судей стала одним из самых обсуждаемых вопросов в 2017 году. Но, как показывают исследования, иногда искусственный интеллект оказывается более рассудительным и справедливым, чем человек. New York Times объясняет, почему судебная система выигрывает от применения ИИ.

Стоит ли отпускать подсудимого под залог или можно обойтись без залога — такой выбор регулярно приходится делать американским судьям. Обычно решение выносится стремительно, а на его обдумывание не остается времени. Судьям приходится полагаться на интуицию и личные предпочтения. В результате чаще всего подсудимых отпускают под залог.

Чтобы сделать решения более взвешенными, некоторые суды в США начали использовать алгоритмы. Программы просчитывают все возможные риски и определяют, можно ли отпустить подозреваемого до суда и на каких условиях это лучше сделать. Эксперимент в штате Вирджиния показал, что ИИ в два раза чаще отпускал подсудимых. Но при этом количество преступлений, совершаемых подозреваемыми в ожидании суда, не увеличилось.

Аналогичный эксперимент провели в Нью-Джерси. В результате количество заключенных, ожидающих суда, сократилось на 16%. На уровне преступности это никак не сказалось.

Успешные опыты работы с алгоритмами проводились и ранее. Еще в 2008 году в Филадельфии компьютерная программа помогала решать, каких преступников стоит выпускать условно-досрочно. В итоге полиция тратила меньше времени на контроль за освобожденными с низкой степенью риска, а уровень преступности при этом не вырос. Более того, судебная система получила выгоду от содержания меньшего количества заключенных, так как это помогло сократить расходы.

По мнению авторов NYT, эти примеры доказывают, что грамотно использованные данные и статистика помогают выносить более справедливые решения, в которых нет непоследовательности и скрытой предвзятости.

Однако это зависит от качества алгоритмов. Некоторые системы несовершенны и переносят на себе предубеждения разработчиков. Причиной служат неверные расчеты и статистика. Но большинство разработок, уверены авторы, не должны вызывать подозрений.

В 2016 году организация ProPublica проанализировала 7000 судебных случаев и обнаружила, что темнокожим правонарушителям алгоритмы чаще присуждают средний и высокий показатель риска рецидивизма. Аналитики пришли к выводу, что в программе укоренены расистские предрассудки. Но некоторые эксперты отмечают, что алгоритм не может действовать предвзято — он учитывают только статистические факторы, и раса не становится для ИИ отягчающим фактором.

«В силу социальных и экономических причин темнокожие заключенные в данном регионе действительно чаще совершают преступления после освобождения», — пишут авторы. Они приходят к выводу, что в решении алгоритма виноваты не предубеждения, а социальное неравенство. Поэтому, на первый взгляд, такая программа может показаться предвзятой и несовершенной, но по факту механизм ее работы вполне логичен.

Ошибочными могут быть не только прогнозы алгоритмов, но даже тесты ДНК, взятые с места преступления. В сентябре Общество правовой помощи Нью-Йорка обратило внимание на то, что многие методы анализа ДНК, применяемые при расследованиях, далеки от совершенства и могут давать ложные результаты.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

hightech.fm