Ошибки ИИ в праве: обзор прецедентов

Мы уже писали о последствиях использования юристами ложной информации, сгенерированной ИИ. Однако такие случаи - не единичны. Существует целый ряд прецедентов ошибок ИИ в юриспруденции - рассмотрим громкие из них.

Так, в Норвегии ChatGPT сгенерировал недостоверную информацию об осуждении гражданина за убийство детей. Это привело к жалобе на OpenAI со стороны организации по защите данных - они потребовали удаления ложных сведений. Сложность заключается в технической невозможности удаления отдельного "факта" из модели, что ставит вопрос о необходимости разработки механизмов корректировки неверных данных.

В США федеральный судья оштрафовал адвоката за подачу документов со ссылками на несуществующие прецеденты, сгенерированные ИИ. Суд подчеркнул, что применение ИИ-инструментов допустимо только при наличии контроля со стороны юриста. Здесь нельзя заменить работу человека нейросетью: необходимо корректировать результаты ИИ и проверять актуальность судебной практики от сгенерированной информации. Аналогичная ситуация произошла в Канаде, где 9 из 10 судебных решений, представленных в иске, оказались придуманы нейросетью, что привело к отказу в удовлетворении иска.

Интересно, что статистика нейроошибок довольно неутешительная: их количество стремительно растет. Так, за период с 2023 по май 2025 года зафиксировано 137 таких дел в 12 странах. При этом, в 2023 году их количество составляло 10, в 2024 - 37, а в 2025 уже 73. Основные ошибки юристов в использовании ИИ - это отсутствие проверки сгенерированного контента на достоверность и нарушение профессиональных стандартов.

Однако проблема применения ИИ в праве не ограничиваются только лишь генерацией текста. Нейросеть активно внедряется и в системы распознавания лиц, в которых происходят ошибки, приводящие к серьезным последствиям.

Так, в России ученый ошибочно был задержан по подозрению в убийствах из-за совпадения его фотографии с фотороботом преступника, сгенерированным алгоритмом. Позднее суд прекратил дело.

В США 61-летний мужчина был ложно обвинен в ограблении магазина на основании ошибочной идентификации системой распознавания лиц.

Применение ИИ в праве - очень неоднозначный процесс: с одной стороны, он призван облегчать работу юриста, а с другой - может привести к непоправимым последствиям. Именно поэтому необходимо очень внимательно и осторожно, с применением критического мышления, перепроверять сгенерированную информацию.

Всё о юридических и финансовых технологиях

Мы пишем о технологиях роста, новых моделях заработка для юристов, неординарных героях со всего мира. Ежедневно публикуем важнейшие юридические новости, обзоры и аналитику.


Сайт использует файлы cookie и сервис Яндекс Метрика для лучшего предоставления информации. Продолжая использовать наш сайт, вы даете согласие на использование куки и данных аналитики в соответствии с нашим Соглашением. Вы можете отказаться от использования куки, изменив настройки браузера.