7 июля 2023 г.
Законодатели во всем мире предлагают ввести нормативные акты и правила, регулирующие использование больших языковых моделей (LLM), таких как ChatGPT и Google Bard. В свете этого Gartner указывает четыре направления, по которым должны работать юрисконсульты и руководители юридических служб организаций.
«Руководители юридических служб могут изучить предложения разных законодателей, выявив в них общее, чтобы помочь своей организации подготовиться к нормативным изменениям при выработке корпоративной стратегии использования ИИ, — пишет в пресс-релизе Лаура Кон (Laura Cohn), старший директор по исследованиям Gartner. — Во многих юрисдикциях эти законы вряд ли вступят в силу раньше 2025 года, но организациям стоит начать готовиться уже сейчас, а не ждать окончательных формулировок».
Эксперты Gartner указывают четыре области, требующие внимания руководителей юридических служб, чтобы подготовить свою организацию к будущему регулированию в ИИ:
Прозрачность в использовании ИИ
«Прозрачность использования искусственного интеллекта постулируется как важнейший принцип будущего законодательства во всем мире, — пишет Кон. — Руководителям юротделов нужно продумать, как донести это до всех, кто будет взаимодействовать с ИИ».
Например, при использовании ИИ в маркетинговом контенте или в процессе найма имеет смысл обновить уведомление о порядке использования личной информации и положение об условиях на веб-сайте своей компании, отразив в них вопросы использования ИИ, но еще лучше создать специальный раздел в блоке, посвященном вопросам информационной безопасности. Либо же можно оперативно выводить уведомления всякий раз при сборе тех или иных данных, сообщая, как именно используется ИИ в организации. Можно также обновить свой кодекс поведения поставщиков, включив пункт об обязательном уведомлении в случае использования ими ИИ.
Непрерывность управления рисками
«Руководителям юридических служб следует участвовать в выработке межподразделенческих программ внедрения средств управления рисками, охватывающих весь жизненный цикл любого высокорискового инструмента ИИ, — пишет Кон. — Одним из подходов может быть алгоритмическая оценка влияния (AIA), которая документирует принятие решений, демонстрирует due diligence и снижает текущий и будущий регуляторный риск и иную ответственность».
Помимо собственно правовых аспектов должны быть охвачены вопросы информационной безопасности, управления данными и интеллектуального анализа, а также прайвеси и комплаенса, чтобы получить более полную картину рисков. Поскольку руководители юридических служб непосредственно не вовлечены в управление этими бизнес-процессами, необходимо контактировать и консультироваться с соответствующими бизнес-подразделениями.
Надзор со стороны человека
«Один из самых очевидных рисков при использовании больших языковых моделей в том, что информация в выдаче может быть совершенно ошибочной, хотя и выглядеть правдоподобной, — предупреждает Кон. — Именно поэтому необходим надзор, осуществляемый человеком, чтобы обеспечить надежную проверку всей выдаваемой искусственным интеллектом информации».
Организации могут назначить специального ответственного за ИИ, который поможет командам в разработке и внедрении такого надзора. В зависимости от того, о каком отделе идет речь, это может быть член команды с глубоким знанием бизнес-процессов в подразделении, сотрудник группы ИБ или обеспечения конфиденциальности или, если есть интеграция с корпоративным поиском, руководитель службы цифровых рабочих мест.
Можно также создать консультативный совет по цифровой этике, включающий представителей юридического, операционного, маркетингового, ИТ-отдела и внешних экспертов, чтобы помочь группам проектов решать этические проблемы, обеспечив при этом, чтобы совет директоров был в курсе их результатов.
Защита конфиденциальности данных
«Понятно, что регулирующие органы хотят обеспечить конфиденциальность данных пользователей при использовании ИИ, — пишет Кон. — Руководителям юридических служб необходимо быть в курсе всех вводимых запретов, например биометрического мониторинга в общественных местах».
Руководители юротделов и комплаенс-контроля должны управлять соответствующими рисками, планируя инициативы ИИ на принципах «встроенной конфиденциальности», — например, требовать оценки влияния на конфиденциальность на ранних этапах проекта или назначить членов группы конфиденциальности при запуске для оценки таких рисков.
С приходом общедоступных больших языковых моделей организации должны предупредить своих сотрудников, что любая вводимая ими информация может стать частью набора данных для обучения, то есть критичная или проприетарная информация, использованная при вводе, может попасть в выдачу у посторонних пользователей. Поэтому важно установить правила, донести эти риски до персонала и объяснить, как безопасно пользоваться такими инструментами.
Источник: Пресс-служба компании Gartner