Решение лорда-судьи Бирсса о применении ChatGPT в судебном процессе 2023 года, в котором он использовал генеративный ИИ для создания краткого обзора области права, вызвало значительный интерес. Хотя мнения о целесообразности использования генеративного ИИ в судебной системе расходятся, лорд-судья Бирсс продемонстрировал важный пример ответственного применения ИИ, который впоследствии был подтвержден руководством по судебному ИИ, опубликованным в декабре 2023 года.
Судья следовал первому принципу ответственного использования ИИ: он выбрал задачу, соответствующую возможностям ChatGPT, основываясь на своем понимании технологии. Сгенерированный ИИ результат был проверен самим судьей на основе его опыта, что позволило сэкономить время, не нарушая при этом прерогативы суда в установлении фактов и принятии решений.Примечательно, что лорд-судья Бирсс сохранил полную ответственность за использование ChatGPT. Окончательное судебное решение, включая возможные ошибки, остается на его ответственности. Единственный возможный недостаток – это отсутствие упоминания использования ChatGPT в самом решении, что могло бы повысить прозрачность процесса.
Для сравнения, использование генеративного ИИ в судах Нидерландов вызывает больше вопросов. Летом этого года окружной суд Гелдерланда принял решение по делу, где рассматривались три фактических вопроса: срок службы солнечных панелей, текущая средняя цена на электроэнергию и пригодность определенных изоляционных материалов. Суд частично основывал свои выводы на данных, полученных с помощью ChatGPT.
Это вызывает беспокойство из-за недостатка прозрачности: неизвестно, какая версия ChatGPT использовалась, какие команды были введены и как именно результаты ИИ повлияли на аргументацию суда наряду с другими источниками информации.
Почему это важно? Модель ChatGPT предсказывает вероятные комбинации слов на основе данных, на которых она обучена, включая текстовые массивы из Интернета, книг и других источников. Однако ChatGPT не является поисковой системой или надежным инструментом для анализа данных и воспроизводимых фактов. Более подходящим решением было бы использование других форм ИИ, таких как машинное обучение на основе закрытых данных, для анализа информации от производителей, отраслевых отчетов, данных о ценах и мнений экспертов.
В условиях растущего интереса к ИИ важно помнить о принципах его ответственного применения: прозрачности, подотчетности и выборе подходящего инструмента для конкретной задачи. Это особенно актуально, когда речь идет о законных правах, средствах правовой защиты и доступе к правосудию.