ИИ входит в нашу жизнь с каждым днем все прочнее и прочнее, однако он по-прежнему совершает ошибки. Собрали для вас топ громких провалов искусственного интеллекта, которые еще раз доказывают, что нейросеть не так надежна, как кажется, а подходить к ее использованию в юридической практике стоит с особой внимательностью.
1. Фальшивые судебные прецеденты от ChatGPT
В 2023 году американский адвокат попал в неприятную ситуацию: он представил суду документ, сгенерированный ChatGPT, в котором были вымышленные судебные решения. ИИ создал убедительные, но несуществующие цитаты, и юрист, не проверив их, попытался использовать их в деле. Судья быстро обнаружил подлог, отклонил иск и оштрафовал адвоката за введение суда в заблуждение.
Позже похожая история произошла с Майклом Коэном, бывшим адвокатом Дональда Трампа. Его защитник использовал ссылки на несуществующие судебные решения, сгенерированные Google Bard. Только в ходе разбирательства выяснилось, что эти дела — выдумка ИИ.
Итог:
После этих случаев суды США, Канады и Великобритании ввели строгие правила: теперь все документы, созданные с помощью ИИ, должны проверяться, а в некоторых случаях юристы обязаны подтверждать их достоверность сертификатами.
2. Ошибки в распознавании лиц привели к осуждению невиновного
В США система распознавания лиц однажды обвинила невиновного: Роберта Уильямса арестовали по ложному совпадению с базой данных. Этот случай заставил правоохранительные органы изменить подход: теперь для ордера на арест требуется не только совпадение от ИИ, но и независимые доказательства.
В России похожая история произошла с гидрологом Александром Цветковым. ИИ сгенерировал фоторобот предполагаемого убийцы, который на 55% совпал с его фотографией. Мужчину арестовали, и он провел в заключении 10 месяцев, несмотря на алиби (он находился в экспедиции в момент преступления). Лишь в 2024 году его оправдали.
Итог:
Когда дело касается дальнейший судьбы и жизни человека, то следует если и не отказаться от применения ИИ, то использовать его с крайней осторожностью и внимательностью, а также обязательно перепроверять выводы нейросети!
3. Дискриминация от нейросети
С 2015 года Великобритания использовала ИИ для сортировки визовых заявок. Позже выяснилось, что он автоматически отправлял заявителей из Африки и Азии в «медленную очередь», отдавая приоритет гражданам западных стран. Это привело к обвинениям в расизме, и систему закрыли.
В 2014 году Нидерланды внедрили другую ИИ-системудля выявления мошенничества с пособиями. Алгоритм анализировал доходы, адреса и семейный статус, но вскоре люди начали жаловаться на несправедливые подозрения. Оказалось, что жители бедных районов чаще попадали в «группу риска». В 2020 году суд запретил эту ИИ-систему, назвав ее угрозой социальному равенству.
Итог:
ИИ не всегда справляется с задачами, требующими профессионального подхода.
Андрей Котляр, руководитель продукта ПравоТех, отмечает, что ИИ пока не может заменить юристов из-за риска генерации ложной информации. Чтобы минимизировать ошибки, ПравоТех применяет три ключевых подхода:
1. Подключает ИИ к базам знаний для более точных ответов.
2. Делит сложные запросы для ИИ на несколько более простых.
3. Проверяет ответы ИИ с помощью юристов перед передачей информации клиенту.
Кстати, ПравоТех выступает партнером конкурса «Лучший сайт юридического сообщества» и подарит ценные призы победителям конкурса! Успевайте подавать заявки – прием заканчивается 15 июля 2025 года. Подробные условия участия можно прочитать здесь.