Громкие ошибки искусственного интеллекта

ИИ входит в нашу жизнь с каждым днем все прочнее и прочнее, однако он по-прежнему совершает ошибки. Собрали для вас топ громких провалов искусственного интеллекта, которые еще раз доказывают, что нейросеть не так надежна, как кажется, а подходить к ее использованию в юридической практике стоит с особой внимательностью.

1. Фальшивые судебные прецеденты от ChatGPT

В 2023 году американский адвокат попал в неприятную ситуацию: он представил суду документ, сгенерированный ChatGPT, в котором были вымышленные судебные решения. ИИ создал убедительные, но несуществующие цитаты, и юрист, не проверив их, попытался использовать их в деле. Судья быстро обнаружил подлог, отклонил иск и оштрафовал адвоката за введение суда в заблуждение.

Позже похожая история произошла с Майклом Коэном, бывшим адвокатом Дональда Трампа. Его защитник использовал ссылки на несуществующие судебные решения, сгенерированные Google Bard. Только в ходе разбирательства выяснилось, что эти дела — выдумка ИИ.

Итог:

После этих случаев суды США, Канады и Великобритании ввели строгие правила: теперь все документы, созданные с помощью ИИ, должны проверяться, а в некоторых случаях юристы обязаны подтверждать их достоверность сертификатами.

2. Ошибки в распознавании лиц привели к осуждению невиновного

В США система распознавания лиц однажды обвинила невиновного: Роберта Уильямса арестовали по ложному совпадению с базой данных. Этот случай заставил правоохранительные органы изменить подход: теперь для ордера на арест требуется не только совпадение от ИИ, но и независимые доказательства.

В России похожая история произошла с гидрологом Александром Цветковым. ИИ сгенерировал фоторобот предполагаемого убийцы, который на 55% совпал с его фотографией. Мужчину арестовали, и он провел в заключении 10 месяцев, несмотря на алиби (он находился в экспедиции в момент преступления). Лишь в 2024 году его оправдали.

Итог:

Когда дело касается дальнейший судьбы и жизни человека, то следует если и не отказаться от применения ИИ, то использовать его с крайней осторожностью и внимательностью, а также обязательно перепроверять выводы нейросети!

3. Дискриминация от нейросети

С 2015 года Великобритания использовала ИИ для сортировки визовых заявок. Позже выяснилось, что он автоматически отправлял заявителей из Африки и Азии в «медленную очередь», отдавая приоритет гражданам западных стран. Это привело к обвинениям в расизме, и систему закрыли.

В 2014 году Нидерланды внедрили другую ИИ-системудля выявления мошенничества с пособиями. Алгоритм анализировал доходы, адреса и семейный статус, но вскоре люди начали жаловаться на несправедливые подозрения. Оказалось, что жители бедных районов чаще попадали в «группу риска». В 2020 году суд запретил эту ИИ-систему, назвав ее угрозой социальному равенству.

Итог:

ИИ не всегда справляется с задачами, требующими профессионального подхода.

Андрей Котляр, руководитель продукта ПравоТех, отмечает, что ИИ пока не может заменить юристов из-за риска генерации ложной информации. Чтобы минимизировать ошибки, ПравоТех применяет три ключевых подхода:

1. Подключает ИИ к базам знаний для более точных ответов.

2. Делит сложные запросы для ИИ на несколько более простых.

3. Проверяет ответы ИИ с помощью юристов перед передачей информации клиенту.

Кстати, ПравоТех выступает партнером конкурса «Лучший сайт юридического сообщества» и подарит ценные призы победителям конкурса! Успевайте подавать заявки – прием заканчивается 15 июля 2025 года. Подробные условия участия можно прочитать здесь.

Всё о юридических и финансовых технологиях

Мы пишем о технологиях роста, новых моделях заработка для юристов, неординарных героях со всего мира. Ежедневно публикуем важнейшие юридические новости, обзоры и аналитику.


Сайт использует файлы cookie и сервис Яндекс Метрика для лучшего предоставления информации. Продолжая использовать наш сайт, вы даете согласие на использование куки и данных аналитики в соответствии с нашим Соглашением. Вы можете отказаться от использования куки, изменив настройки браузера.