🚀 Trustee Plus - картка європейського банку і криптогаманець. Встанови додаток 👉

Апелляция к ChatGPT – неуважение к судьям. Верховный суд Украины впервые сформулировал позицию по использованию искусственного интеллекта. Но не все с этим согласны

Верховный суд Украины впервые высказал свою позицию по использованию участниками судебных процессов искусственного интеллекта.

Оставить комментарий
Апелляция к ChatGPT – неуважение к судьям. Верховный суд Украины впервые сформулировал позицию по использованию искусственного интеллекта. Но не все с этим согласны

Верховный суд Украины впервые высказал свою позицию по использованию участниками судебных процессов искусственного интеллекта.

Так по делу частного предприятия «Агротрейд групп» против частного лица, с которым ЧП хотело взыскать 4,7 млн ​​грн долга, заявитель попросил судей разъяснить отдельные понятия и выводы в решении с целью правильного применения норм права.

Речь шла о таком понятии добровольного обязательства.

На заседании жалобщик процитировал содержание этого понятия, которое дал ChatGPT.

Жалобщик обратил внимание, что ChatGPT идентифицировал данную правовую конструкцию как обязательство, к которому стороны дошли добровольно (по собственному волеизъявлению). Поэтому, по мнению заявителя, суду еще нужно дополнительно определить субъектов, объект и содержание такого понятия и разъяснить его отличия от слова «обязательства».

Однако суд не принял доводы заявителя со ссылкой на «искусственный интеллект».

Во-первых, потому что в Украине пока «не утверждены этические стандарты и нормы, регулирующие использование искусственного интеллекта в судопроизводстве…» .

«Искусственный интеллект может быть полезным и вспомогательным инструментом в сфере правосудия, но не может заменить роль судей», — говорится в постановлении.

Более того, Верховный суд считает, что действия заявителя в совокупности (представление заведомо безосновательного заявления на разъяснение постановления кассационной инстанции), апеллирование к позиции искусственного интеллекта ChatGPT является проявлением неуважения к судьям Верховного суда.

В постановлении от 8 февраля Верховный суд сослался на то, что «использование технологий, прежде всего, должно уважать природу судебного процесса».

«Технологии не должны вмешиваться в сферу справедливости. Технологии не должны поощрять или препятствовать критическому мышлению судей, поскольку это может привести к стагнации правового развития и эрозии системы правовой защиты. Поэтому технологические инструменты должны уважать процесс принятия судебных решений и автономию судей», — заключал суд.

«Искусственный интеллект» ChatGPT, по мнению судей, не признается как источник достоверной научно доказанной информации, в противоположность выводам, сделанным судом в судебном решении. Это ставит под сомнение судейское усмотрение и судебное толкование вопроса в решении, которое получило статус окончательного.

«Этим заявитель пренебрег авторитетом судебной власти», — говорится в постановлении.

Не все судьи согласны

Судья Анна Вронская поделилась отдельным мнением о выводах Верховного суда.

Она считает, что сославшись на ответы, сгенерированные ИИ ChatGPT, с целью обоснования своей позиции, заявитель не проявил неуважения к суду и не поставил под сомнение его выводы. Напротив, стремился выяснить и уточнить отдельные выводы по вопросам, по которым высказался Верховный Суд.

«В заявлении отсутствуют какие-либо унизительные, оскорбительные или другие негативные высказывания, откровенная демонстрация неуважения к Суду и тому подобное», — считает Вронская.

Как она пишет, действующее хозяйственное процессуальное законодательство не содержит запрета на использование технологий ИИ при осуществлении хозяйственного судопроизводства.

Кроме того, в судебной практике отсутствует устоявшийся подход и четкие критерии, по которым использование ИИ участниками судебного процесса может признаваться злоупотреблением процессуальными правами.

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментариев пока нет.