Пятница, 26 июля, 2024

Юристы определили, что искусственный интеллект некорректно составляет документы

НовостиОбществоЮристы определили, что искусственный интеллект некорректно составляет документы

Общество

Юристы определили, что искусственный интеллект некорректно составляет документы


Ассоциация российских юристов напоминает своим членам о рисках полного доверия искусственному интеллекту в юриспруденции. Появились случаи, когда такие программы неправильно составляли юридическую документацию, вводя в заблуждение пользователей.
Юристам необходимо подходить к использованию ИИ осторожно и тщательно проверять его результаты вручную. Юристам важно быть особенно внимательными, когда используются новые программы в своей деятельности, так как есть опасность быть обвиненным в подделке доказательств и столкнуться с судебной ответственностью.

По последним сообщениям, за границей судьи ввели запрет на использование нейросети участниками процессов. Более того, в некоторых случаях требуются сертификаты, доказывающие, что тексты адвокатов и прокуроров не были сгенерированы с помощью искусственного интеллекта.

ИИ и юриспруденция — мнения экспертов

Ефим Казанцев, являющийся членом Комиссии по правовому обеспечению цифровой экономики Московского отделения Ассоциации юристов России, предупредил о повышенных рисках использования текстов, созданных нейросетью, когда они имеют юридическое значение. Он отметил, что такие попытки могут привести к серьезным проблемам, так как созданный нейросетью текст может быть недостоверным и не соответствовать действительности.
Он утверждает, что это обусловлено спецификой функционирования генеративной модели, которая лежит в основе Chat GPT и многих других подобных систем. Согласно словам Ефима Казанцева, модели не имеют возможности отличать настоящие слова и фразы от ложных. Единственное, что они делают — упорядочивают слова в последовательность наиболее соответствующую заданному контексту.

Принцип модели

Эти модели могут порождать как реальные тексты, так и нереальные, но в любом случае будут создавать очень убедительный результат, что и привлекает людей, не понимающих особенности генеративных моделей. Случаи использования нейросетью сгенерированных текстов в судебных процессах могут привести к заблуждению участников процесса или даже испортить дело, заявляет юрист.
Некоторые юристы уже столкнулись с «выдуманными» Chat GPT текстами во время судебных процессов, что привело к нежелательным последствиям. Из-за этого некоторые судьи вводят запрет на использование этих текстов в суде, чтобы избежать проблем в дальнейшем. Ефим Казанцев считает, что использование генеративных моделей для создания юридически значимых текстов не является абсолютно невозможным.

Хотя ChatGPT не подходит для этой цели, поскольку его задача — сгенерировать любой текст, который будет соответствовать запросу, а юридически значимые документы должны соответствовать действительности.
Тем не менее, если появятся генеративные модели, которые будут способны не только создавать понятные тексты, но и гарантировать правдивость и актуальность информации, то их использование для создания юридически значимых текстов со временем станет стандартом. Но, конечно, вначале любой сгенерированный искусственным интеллектом юридически значимый текст должен быть тщательно проверен на соответствие действительности и актуальности используемых норм.
Преподаватель Moscow Digital School Александра Орехович согласна с решением ввести запрет на использование нейросети в работе судей и адвокатов. Она отмечает, что она может «придумывать» информацию и встроить ее в текст, что приводит к возникновению «галлюцинаций нейросети». Если ChatGPT ошибается в выборе большего числа, это одно дело, а если он фальсифицирует доказательства, как в случае с чат-ботом, это уже совсем другое. Программа выдумала несуществующие события, испортив данные из официальных источников, что является фальсификацией доказательств.
Адвокат Стивен Шварц применил нейросеть, чтобы разработать свою позицию по делу и представить отчет, содержащий ссылки на судебные решения, относящиеся к нескольким аналогичным судебным делам. Но они никогда не существовали, и использование таких ссылок является искажением фактов. Использование нейросети в судебной системе может быть рискованным.

Тогда запрещать?

“Нарушение интегритета и качества данных может привести к репутационным рискам и юридическим наказаниям для представления ложных сведений или фальсификаций доказательств. Судебная система является чувствительной, поэтому цена ошибки в несколько раз выше” — подчеркивают в ЮАП (https://pravo.legal/)
Полный запрет на использование ИИ в судебной системе — мера еще более рискованная, так как не регулируются пределы применения Chat GPT в судах. Ожидается, что эти меры повысят уровень дополнительного контроля со стороны лиц, которые используют нейросеть с целью формирования своих позиций.

Реклама. Материал предоставлен ООО «Альянс», ИНН 7807394959

Другие статьи

Афишаspot_img

Последние новости