Мы уже писали о последствиях использования юристами ложной информации, сгенерированной ИИ. Однако такие случаи - не единичны. Существует целый ряд прецедентов ошибок ИИ в юриспруденции - рассмотрим громкие из них.
Так, в Норвегии ChatGPT сгенерировал недостоверную информацию об осуждении гражданина за убийство детей. Это привело к жалобе на OpenAI со стороны организации по защите данных - они потребовали удаления ложных сведений. Сложность заключается в технической невозможности удаления отдельного "факта" из модели, что ставит вопрос о необходимости разработки механизмов корректировки неверных данных.
В США федеральный судья оштрафовал адвоката за подачу документов со ссылками на несуществующие прецеденты, сгенерированные ИИ. Суд подчеркнул, что применение ИИ-инструментов допустимо только при наличии контроля со стороны юриста. Здесь нельзя заменить работу человека нейросетью: необходимо корректировать результаты ИИ и проверять актуальность судебной практики от сгенерированной информации. Аналогичная ситуация произошла в Канаде, где 9 из 10 судебных решений, представленных в иске, оказались придуманы нейросетью, что привело к отказу в удовлетворении иска.
Интересно, что статистика нейроошибок довольно неутешительная: их количество стремительно растет. Так, за период с 2023 по май 2025 года зафиксировано 137 таких дел в 12 странах. При этом, в 2023 году их количество составляло 10, в 2024 - 37, а в 2025 уже 73. Основные ошибки юристов в использовании ИИ - это отсутствие проверки сгенерированного контента на достоверность и нарушение профессиональных стандартов.
Однако проблема применения ИИ в праве не ограничиваются только лишь генерацией текста. Нейросеть активно внедряется и в системы распознавания лиц, в которых происходят ошибки, приводящие к серьезным последствиям.
Так, в России ученый ошибочно был задержан по подозрению в убийствах из-за совпадения его фотографии с фотороботом преступника, сгенерированным алгоритмом. Позднее суд прекратил дело.
В США 61-летний мужчина был ложно обвинен в ограблении магазина на основании ошибочной идентификации системой распознавания лиц.
Применение ИИ в праве - очень неоднозначный процесс: с одной стороны, он призван облегчать работу юриста, а с другой - может привести к непоправимым последствиям. Именно поэтому необходимо очень внимательно и осторожно, с применением критического мышления, перепроверять сгенерированную информацию.