xcounter
Calendar Icon

Искусственный интеллект в судах. Решит ли он проблемы украинского правосудия?

19.01.2022 15:30 (Оновлено 19.01.2022 в 15:30)
Иван Городиский, «Новое Время»

​В Украине тему применения искусственного интеллекта в правосудии активно обсуждают последние 2 года.

Общества, много лет борющиеся за решение тех или иных проблем, со временем могут искать не долгий, но эффективный путь перемен, а волшебную таблетку, панацею, которая, якобы, быстро решит их проблемы. Это утверждение, наверное, особенно подходит к применению искусственного интеллекта в правосудии. И Украина, где Окружной административный суд Киева (ОАСК) принадлежит к ключевым органам власти, а районные суды, то ли в Барышевке, то ли в Жовкве, принимают решения, возмущающие все общество, среди тех государств, которые могут верить, что применение новейших технологий станет ключом к справедливости.

В Украине тему применения искусственного интеллекта в правосудии активно обсуждают последние 2 года. Начало ей положил Минюст в лице Дениса Малюськи, который в 2020 году анонсировал запуск Кассандры — программы «с элементами искусственного интеллекта» для подготовки характеристики обвиняемого при вынесении приговора. Уже 21 декабря этого года министр определил «обеспечение удобного сбора, использования и анализа данных в пенитенциарной системе для принятия обоснованных управленческих решений» как один из векторов Стратегии реформирования пенитенциарной системы.

Сейчас это лишь точечные проекты, однако очень вероятно, что вскоре они станут больше. Также, не исключена и их широкая общественная поддержка, как из-за проблем с реформой судебной системы, так и из-за популярности уже внедренных цифровых проектов, прежде всего Дии.

Однако сама эта идея уже с самого начала вызывает ряд вопросов. В первую очередь, насколько совершенны эти технологии и не будут ли они повторять те же ошибки, которые допускают люди? А также действительно ли решения машинного правосудия отвечают самой идее справедливости?

На данный момент мы не можем говорить именно о сильном искусственном интеллекте, который будет осуществлять правосудие самостоятельно, а лишь о слабом, выводы которого будут основываться на запрограммированных алгоритмах. Поэтому эти технологии могут применяться только в ходе осуществления правосудия, а не для его осуществления, что исключает их широкое применение.

Также пилотные проекты в других странах, подобные Кассандре, показали несовершенство этих технологий, в частности в случае алгоритма Управления профайлингом правонарушителей для избрания альнернативного наказания (англ. Correctional Offender Management Profiling for Alternative Sanctions, COMPAS) в США. Организация ProPublica в своем отчете по COMPAS установила, что этот алгоритм определял «высокий риск» рецидива правонарушения для афроамериканцев вдвое чаще других. В итоге афроамериканские подозреваемые с «высоким риском» в 44,9% не совершали рецидива, в то время как другие подозреваемые, с «низким риском», совершали его в 47,7%.

Эти результаты, хотя и не являются провальными, порождают другой риск: реакцией на них может быть «принудительное сбалансирование» алгоритмов в пользу одной общественной группы или же для «позитивной дискриминации другой». То есть существующие негативные тенденции будут искривлены другим способом и, тем самым, продолжат свое существование. Можно ли будет такую «откорректированную справедливость» назвать мерилом правосудия, как ее определял Аристотель?

Собственно идею справедливости очень сложно, или вообще невозможно перевести в код или через алгоритмы научить ее соответствующие технологии. Поэтому если мы обвиняем судей-людей, что они принимают несправедливые решения, то сможем ли научить технологию принимать эти решения? А с другой стороны — будем ли мы готовы признавать как справедливые решения, принятые не человеком, а технологией?

Важно помнить, что кроме государств, страдающих от проблем в системе правосудия, есть еще одна категория государств, активно продвигающих эти технологии в сфере правосудия: страны с авторитарной моделью управления. Они рассматривают такие технологии как инструмент контроля в сфере правосудия и применяют с целью ограничения независимости судей, влияния на содержание их решений и т.д. И такой соблазн может появиться практически у любой власти.

Одним из путей предупреждения этих рисков является вовлечение в разработку и внедрение искусственного интеллекта в правосудии широкого круга специалистов: как по ИТ и праву, так и по философии, социологии, этике, религии и т.д. К этому, в частности, призывают Европейский Союз, Совет Европы и ряд других организаций. Также внедрению цифровых технологий в публичной сфере должна предшествовать широкая общественная дискуссия. К сожалению, ни того, ни другого в Украине сейчас не происходит, что подрывает как общественное доверие, так и юридическую легитимность этих идей.

При любых технологиях ответственность за общественное развитие и справедливость будет лежать именно на нас, людях. И на тезис о том, что искусственный интеллект сможет защитить наши права лучше нас, можно посмотреть под другим углом: «Если люди-судьи все еще не могут эффективно защитить права и свободы людей и обеспечить верховенство права, почему искусственный интеллект сможет (или будет обязан) делать это для людей?».

Теми публікації:
Кращі криптовалютні біржі 2021 року для трейдерів-початківців

Кращі криптовалютні біржі 2021 року для трейдерів-початківців

Популярні відео на YouTUBE
Тематичні матеріали
Binance
Цікаве
Найпопулярніші новини
Найкращі відео з YouTUBE
Популярні блоги
Погода і гороскоп
Автоновини