"Предсказанное правосудие": а судьи кто?

Пандемия COVID-19 «подлила» масла в огонь – спешный и массовый переход на «дистант» сотен тысяч людей в России и в мире, как для получения услуг, так и для безопасной работы, - всё это потребовало новых форм взаимодействия, в немалой степени используя искусственный интеллект. Юриспруденция не стала исключением: LegalTech также набирает обороты.

Несмотря на присущую консервативность, технологические решения (автоматизации, аналитики и т.д.) являются актуальными и востребованными как для юристов и адвокатов, так и для судей.

Что касается последних, то не только в отношении них, но для них по всему миру создаются программные продукты с искусственным интеллектом, берущим на себя часть юридической работы. Некоторые из таких продуктов – фактически участвуют в правосудии, хотя и не подменяют собой судью-человека.

Как выглядит на практике так называемое «предсказанное правосудие», рассказываем на PLATFORMA Media.


Что такое "предсказанное правосудие"?

По определению российских учёных-исследователей, «предсказанное правосудие» предоставляет собой алгоритмы для анализа в короткие сроки огромного количества ситуаций, позволяющих предвидеть исход спора или, по крайней мере, оценить шансы на успех.

Оно помогает: выбрать правильный способ защиты, наиболее подходящие аргументы, оценить предполагаемую сумму компенсации и т.д. Таким образом, речь идет не о самом правосудии, а лишь об аналитических инструментах, которые позволили бы прогнозировать будущие решения в спорах, аналогичных тем, которые были проанализированы.

Иными словами, в практическом применении «предсказанное правосудие» – использование специальной программы-алгоритма с искусственным интеллектом, который способен обработать большое количество различной правовой (и не только) информации, и по итогу – выдать прогноз о наиболее вероятном (порой и предпочтительном – об этом ниже) исходе ситуации, возможном решении суда.

Такие данные используются не только юристами-представителями по делам c целью выстраивания наиболее выигрышной позиции, но и некоторыми зарубежными судами при принятии решений.

Казнить нельзя помиловать: что решит искусственный интеллект?

США одними из первых стали внедрять системы на основе искусственного интеллекта при отправлении правосудия, и довольно активно сразу в уголовно-правовой сфере.

Например, в штате Нью-Джерси благодаря действию программы «Оценка общественной безопасности» (анализирует целую совокупность рисковых факторов) на 16% увеличилось число лиц, отправленных под залог, а не в следственный изолятор.

Схожий с указанным алгоритм другой программы помог округу Лукас (штат Огайо) удвоить количество досудебных освобождений без залога и также вдвое сократить количество преступлений, связанных с нарушением мер пресечения.

В то же время возникают сомнения в объективности, беспристрастности и гуманности рекомендаций машинного разума.

Так, The New York Times писала о резонансном решении, принятом хотя и судьёй-человеком, но на основе рекомендаций искусственного интеллекта. Речь шла о программе COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Проанализировав совокупность информации о подозреваемом, а также об обстоятельствах совершённого им преступления, искусственный интеллект «посоветовал» приговорить гражданина штата Висконсин Э. Лумиса (Mr. Eric Loomis) к 11-летнему наказанию: их них 6 лет – реального срока и 5 лет – усиленного надзора (наблюдения), хотя совершённые преступления не предусматривали тюремного заключения. Одним из решающих аргументов COMPAS’а стал довод о высоком риске рецидива (ранее Э. Луис уже попадал в поле зрения закона).

Именно эти данные повлияли на решение судьи-человека – Э. Луис был отправлен в тюрьму. Верховный суд штата Висконсин отклонил его протест, Верховный суд США – жалобу рассматривать отказался.

После придания этому случаю огласки, разработчики программы совместно с представителями портала Propublica (объединяет сообщество учёных, негативно относящихся к ИИ) провели анализ алгоритмов COMPAS’а на предмет предвзятости по признаку пола, расы, национальности, уровня дохода и т.д.

Как ни странно, алгоритмы COMPAS по построению нейронных сетей и глубокому обучению математически были признаны обеими сторонами исследования безупречными, как и сама программа в статистическом смысле. Статистическая безупречность означает, что нейронным сетям удалось установить наиболее точную зависимость между выходными данными и входными, т. е. между данными, представляющими профиль того или иного индивида, и критериями риска.

Помощник в прогнозировании

«Предсказанное правосудие» – это не только программы с ИИ для судей, но и программы, помогающие юристам максимально точно спрогнозировать возможное решение. Полезность таких программ (с ИИ) состоит в том, что используя их, возможно довольно точно определить вероятный исход не только конкретного дела в конкретном суде, но и выяснить формулировки конкретного судьи, которые он положительно воспринимает и которыми мотивирует свои решения.

Американская компания «Ravel Law» одна из первых создала такой продукт – «Судебная аналитика» (Court Analitics): он умеет очень точно выявлять язык, который каждый американский судья находит убедительным по конкретному вопросу.

Другая американская компания «Lex Machina» создала платформу «Legal Analytics Platform», обладающую множеством функций, помогающих юристам в их правовой стратегии: приложение «Timing Analytics» использует ИИ для прогнозирования предполагаемого времени, когда дело будет заслушано в суде конкретным судьей. Приложение «The Party Group Editor», с другой стороны, позволяет пользователям выбирать адвокатов и анализировать их опыт перед судьей или судом, а также количество судебных процессов, в которых они участвовали.

В то же время любопытно принятие во Франции в марте прошлого года Закона, запретившего судейскую аналитику (т.е. оценку, анализ, сравнение или прогнозирование) решений отдельных судей.

Столь жёсткое регулирование – на фоне активного развития во Франции искусственного интеллекта в правовой сфере – было вызвано отчасти публикацией результатов исследования по использованию машинного обучения для сравнения решений судей в делах о предоставлении убежища, которое выявило большие расхождения между отдельными французскими судьями. У данного Закона много критиков, полагающих, что под его действие может попасть и доктринальный юридический анализ, что фактически является посягательством на академическую свободу.

Что касается России, то в ходе пленарного заседания VI Московского юридического форума «Российская правовая система в условиях четвертой промышленной революции» в апреле прошлого года председатель Совета судей России Виктор Момотов выступил с докладом на тему «Судебная власть в условиях современных цифровых технологий».

Виктор Момотов отметил, что в России в экспертной среде ведутся обсуждения на тему возможности использования программ искусственного интеллекта при отправлении правосудия.

Также Председатель Совета судей указал на то, что в европейских странах (например, во Франции, Великобритании, в Китае и др.), в которых использование таких программ уже ведётся, всё же в большей степени искусственному интеллекту отдана вспомогательная функция, а право принимать окончательное решение, на основе анализа и оценки дела, принадлежит человеку-судье. Вместе с тем, в случаях, когда искусственный интеллект способен автоматизировать и упростить рутинную, однотипную работу судей – применение «умных» систем будет, по его мнению, вполне оправдано.

Что дальше?

Какие эксперименты с внедрением искусственного интеллекта в нашу жизнь и, в частности, в сферу юриспруденции оправдают себя и приживутся – спрогнозировать трудно. В одном же можно быть уверенным: технологии и право, в том или ином виде, будут вынуждены не просто сосуществовать, а дополнять друг друга.

В тоже время, считаем, что несмотря на безусловную «продвинутость», бОльшую скорость и масштаб обработки данных (по сравнению с юристом-человеком), искусственному интеллекту в обозримом будущем ещё рано, а, возможно, это время и вовсе не настанет – доверять принятие решения о судьбе человека.

Перефразируя первый закон роботехники А.Азимова, полагаем, что искусственный интеллект не должен наносить вред человеку; его задача – стать юристам надёжным помощником.

Как и многие исследователи, считаем, что основным «водоразделом» гармоничного развития должен быть приоритет фигуры человека в плане анализа и контроля тех данных, которые порекомендует искусственный интеллект для принятия решения по делу (вне зависимости от вида процесса).



---- Евгения Шилина для PLATFORMA Media

PLATFORMA финансирует коллективные иски и коммерческие споры. Узнайте подробности по ссылке



Всё о юридических и финансовых технологиях

Мы пишем о технологиях роста, новых моделях заработка для юристов, неординарных героях со всего мира. Ежедневно публикуем важнейшие юридические новости, обзоры и аналитику.