20 ноября 2023 г.
Сотрудники компаний пытаются использовать генеративный ИИ, и юрисконсульт должен подготовить рекомендации, которые будут полезны и сотрудникам, и самой компании, говорит Gartner.
«Чтобы эти рекомендации были эффективны, юрисконсульт должен рассмотреть границы риска, сценарии использования и ограничения, права принятия решений и обязанности по раскрытию информации, — пишет в пресс-релизе Лаура Кон (Laura Cohn), старший директор по исследованиям Gartner. — Наличие ограничений и политик в отношении GenAI лучше подготовит организацию к возможным будущим требованиям законодательства».
Основываясь на практике политик ИИ, установленных компаниями и муниципальными органами власти, юрисконсульт должен обсудить с руководством четыре аспекта выработки такой политики в своей компании:
Границы риска
Чтобы определиться с допустимостью риска в организации, руководители юридических служб могут позаимствовать практику управления корпоративными рисками, проведя обсуждение с высшим руководством с точки зрения последствий, которые необходимо исключить. Обсудите возможные применения моделей генеративного ИИ в вашей организации, а затем выявите потенциальные последствия, которые необходимо исключить, и оцените приемлемый риск исходя из получаемых преимуществ.
«Рекомендации по использованию генеративного ИИ должны предусматривать базовые требования, минимизирующие риски, но оставить для сотрудников возможность экспериментировать с приложениями и использовать новый функционал по мере их развития», — пишет Кон.
Возможные сценарии использования и ограничения
Руководителям юридических служб следует понять возможности использования генеративного ИИ в масштабах всей организации, обсудив это с руководителями других подразделений. Составьте список возможных применений и ранжируйте их с учетом ожидаемых рисков и серьезности каждого риска.
В ситуациях с повышенным риском (напр., подготовка контента для клиентов) продумайте введение более строгого контроля — например, необходимость одобрения менеджера или комитета по ИИ. В случаях самого высокого риска возможно введение полного запрета, а для ситуаций с малым риском (напр., выдвижение идей коллективного отдыха вне стен компании или перевод жаргона или правил с иностранного языка) можно ограничиться базовыми правилами безопасности — например, требованием проверки человеком.
«Не следует чрезмерно увлекаться ограничительными мерами при выработке политики, — дает совет Кон. — Полный запрет применения GenAI и введение слишком жестких мер контроля (например, запрет доступа к определенным веб-сайтам) может привести к тому, что сотрудники просто будут использовать их на своих личных устройствах. Руководители юридических служб могут указать допустимые варианты использования (с низким уровнем риска) непосредственно в политике, равно как обязанности и ограничения для сотрудников по определенным сценариям применения, чтобы обеспечить больше прозрачности и снизить риск недолжного использования».
Полномочия регулирования и ответственность за риск
Необходимо, чтобы юрисконсульт и руководство компании согласовали вопрос о том, кто обладает полномочиями принимать решения по использованию генеративного ИИ. Юротделам нужно взаимодействовать с руководителями других подразделений и высшим звеном руководства, чтобы обсудить и согласовать обязанности по управлению рисками.
«Укажите в правилах подразделение, регулирующее использование ИИ, чтобы сотрудники знали, к кому обращаться с вопросами, — советует Кон. — В правилах нужно четко указать, есть ли сценарии использования, не требующие разрешения, и перечислить их с примерами, а также перечислить применения, по которым необходимо получать разрешение, ясно указав должностное лицо, дающее такое разрешение, вместе с контактной информацией».
Раскрытие информации об использовании ИИ
В организации должна быть принята политика раскрытия информации об использовании и мониторинге технологий генеративного ИИ как внутри компании, так и другим заинтересованным сторонам. Юрисконсульт должен помочь определиться, какую именно информацию и кому следует раскрывать.
«Главный принцип, общий для юрисдикций во всем мире (включая ЕС как законодателя стандартов), состоит в том, что компании должны обеспечить прозрачность использования ими ИИ. Потребители хотят знать, используют ли компании приложения генеративного ИИ для создания своего контента, будь то информация на веб-сайте, в канале социальной сети или в фирменном приложении», — говорит Кон.
«Это означает, что в правилах должно содержаться требование к сотрудникам, чтобы контент, созданный с использованием GenAI, был ясно маркирован как таковой. Можно также подумать о включении в правила отдельного пункта о специальном водяном знаке на изображениях, созданных с помощью ИИ, насколько это технически осуществимо», — добавляет Кон.
Источник: Пресс-служба компании Gartner