19 декабря 2023 г.
Быстрое принятие генеративного ИИ в организациях станет главной проблемой для руководителей юридических служб, комплаенс-контроля и соблюдения конфиденциальности в ближайшие два года — об этом сообщили 70% респондентов в сентябрьском опросе Gartner, в котором приняли участие 179 руководителей этих подразделений.
«Рост возможностей и удобство использования вызвали быстрое и широкое принятие генеративного ИИ в организациях, — пишет в пресс-релизе Стюарт Строум (Stuart Strome), директор по исследованиям практики Legal, Risk & Compliance в Gartner. — Регулирование искусственного интеллекта пока только разрабатывается, и есть множество неопределенностей и непредвиденных рисков. Компаниям нужно будет справляться с этими проблемами, чтобы обеспечить этичное и законное использование этой мощной новой технологии».
Gartner указывает четыре главные области, на которые должны направить свое внимание руководители юридических служб, комплаенс-контроля и соблюдения конфиденциальности.
Трудность выявления новых рисков
Простота внедрения, широкая применимость и способность инструментов GenAI выполнять целый ряд разных бизнес-задач означают, что командам внутреннего контроля будет трудно выявлять все новые риски.
«Потребуется время, чтобы ввести новые процессы выявления этих рисков и управления ими, что оставляет компанию незащищенной, — пишет Строум. — Руководителям служб внутреннего контроля следует приспособить уже существующие, устоявшиеся и широко распространенные методы мониторинга и управления рисками, пока не будут внедрены новые процессы. К примеру, они могли бы модифицировать реестры данных и записи об обработке оценок влияния на конфиденциальность, чтобы отслеживать использование GenAI».
У сотрудников нет ясности о разрешенном использовании
У сотрудников нет ясности, как разрешается использовать технологии GenAI, поскольку они не ознакомлены с регулирующими правилами. Руководителям служб внутреннего контроля следует выработать консенсус касательно выдачи результатов, которых «необходимо избегать», ввести меры контроля, чтобы свести к минимуму их вероятность, и продвигать приемлемые сценарии использования в политиках и руководящих указаниях.
«Руководителям служб внутреннего контроля нужно ввести обязательную проверку человеком выдачи GenAI, запретить ввод информации, составляющей интеллектуальную собственность компании, и персональных данных в общедоступные инструменты, такие как ChatGPT, и выработать политики, которые будут требовать ясного указания источника GenAI в любой публично доступной выдаче, — пишет Строум. — Важно включить типичные примеры запрещенного и допустимого использования GenAI в руководящие указания политик и уведомлять сотрудников при обновлениях политик. Также, подумайте о разработке совместно с ИТ-отделом встроенных средств контроля, например всплывающих окон в инструментах GenAI, требующих от пользователей подтвердить, что они не используют инструменты для запрещенных применений».
Необходимость управления искусственным интеллектом в организации
Поскольку инструменты GenAI становятся всё более распространенными, отсутствие чёткой ответственности за возможные негативные последствия может создать неприемлемые юридические риски и риски конфиденциальности. При этом в большинстве компаний управление искусственным интеллектом не будет вписываться в существующую организационную структуру, и нужные знания и навыки могут быть распределены по разным подразделениям, а то и вовсе отсутствовать. Руководителям служб внутреннего контроля нужно чётко документировать роли и обязанности по утверждению правил, управлению политиками и рисками, а также обучению работе с GenAI.
«Руководителям служб внутреннего контроля следует настаивать на создании межфункционального руководящего комитета либо изменении полномочий уже существующего, чтобы установить принципы и стандарты использования и согласовать роли и обязанности по управлению искусственным интеллектом», — указывает Строум.
Возможность автоматизировать рутинные задачи юротдела
Способность GenAI выдавать результаты на естественном языке открывает дорогу ряду применений в юротделах, позволяя свести к минимуму время, затрачиваемое на вспомогательную работу. Инструменты GenAI могут помочь в выполнении однотипных, отнимающих много времени задач, таких как изучение законодательства и правоприменительной практики, подготовка проектов договоров и справок по законодательству, однако их выдача часто содержит ошибки, поэтому необходимо обеспечить проверку точности результатов.
Руководителям юридических служб следует выработать внутреннюю пилотную программу для тестирования автоматизации или содействия GenAI в выполнении некритичных, повторяющихся, отнимающих много времени задач, включающих создание письменных документов. Следует также сравнить результаты в пилотных тестах с получаемыми обычным путем по затратам времени и итоговому качеству.
«Учитывая простоту использования и гибкость применения генеративного ИИ для организаций, неудивительно, что быстрое принятие этой технологии становится главным риском для руководителей служб внутреннего контроля, однако им не следует реагировать лишь введением драконовских политик, ограничивающих его использование, — пишет в заключение Строум — Такой подход может негативно сказаться на конкурентоспособности бизнеса и подтолкнет сотрудников тайком использовать инструменты GenAI на своих личных устройствах. Передовые руководители служб внутреннего контроля понимают, что генеративный ИИ имеет потенциальную ценность, и взаимодействуют с другими подразделениями в выработке управления и политик, которые направят сотрудников и бизнес-партнеров к сценариям использования, дающим большие преимущества и с низким уровнем риска».
Источник: Пресс-служба компании Gartner