25 июня 2024 г.
Тренд № 7. Разработка ИИ с учетом безопасности
Продолжение. Начало тут, тут, тут и тут
Разработка ИИ с учетом обеспечения безопасности — подход, объединяющий методологии и практики безопасности в контексте разработки и внедрения систем машинного обучения. Он сочетает в себе принципы MLOps (Machine Learning Operations) с учетом специфических требований сервисов с ИИ. Специалисты по кибербезопасности участвуют на всех циклах разработки решения. Подход обеспечивает безопасность и конфиденциальность данных, используемых для обучения и тестирования моделей, а также защиту развернутых моделей и инфраструктуры, на которой они работают, от вредоносных атак.
Immuta: 80% экспертов в сфере данных в мире считают, что ИИ может стать угрозой для безопасности данных.
Прогнозируется, что в ближайшее время главным участником кибератак станет ИИ, который будет настолько быстро взламывать системы защиты организаций, что бороться с ним имеющимися средствами станет невозможно. Уже появляются средства защиты, также основанные на ИИ.
ИИ имитирует действия человека, разгадывает капчи и другие средства защиты, может организовать атаку на критическую инфраструктуру.
С точки зрения производителя: Программы или системы ИИ должны быть устойчивыми к изменениям, которые не должны влиять на их результат, так как среды, в которых развертываются системы ИИ, обычно очень сложны и нестабильны.
С точки зрения пользователя: Важно, что главным приоритетом программы или системы ИИ всегда является безопасность пользователей, а также то, что решения ИИ не приносят вред людям при любых условиях.
С социальной точки зрения: Программы или системы ИИ должны в полном объеме соблюдать все соответствующие законы, правила и этические нормы.
Эффекты от адаптации
- Улучшение клиентского опыта — 1*
- Операционная эффективность — 2*
- Управление талантами — 3*
- Управление рисками — 4*
* Максимальная оценка — 4.
Кейсы адаптации тренда в России
- PT Application Inspector от Positive Technologies позволяет обнаруживать уязвимости и признаки недекларированных возможностей в приложениях. PT Application Inspector анализирует исходный код или готовое приложение, комбинируя статические (SAST), динамические (DAST) и интерактивные (IAST) методы тестирования.
- Solar appScreener от Ростелеком Солар— статический анализатор кода (SAST) для проверки безопасности приложений, ПО и информационных систем. Поддерживает 36 языков программирования. Используется ВТБ, аэропортом Домодедово, ГК «Астра» и другими компаниями российского рынка.
- Kaspersky Container Security защищает бизнес-процессы организации, помогает соответствовать отраслевым стандартам и нормам безопасности, а также реализовать принцип безопасной разработки ПО. Решение с использованием контейнеров позволит разработчикам повысить безопасность продуктов и снизить время вывода их на рынок.
Тренд № 8. Регулирование технологий и сервисов ИИ
Искусственный интеллект — технология, которая может применяться в любой отрасли. Основное внимание в управлении ИИ уделяется вопросам справедливости, качества данных и автономности. Регулирование ИИ определяет, какую часть повседневной жизни могут формировать алгоритмы и кто контролирует функционирование ИИ.
Ключевые области регулирования ИИ:
- Безопасность ИИ,
- Секторы, подходящие для использования ИИ с целью автоматизации,
- Правовые и институциональные структуры, связанные с использованием ИИи технологий,
- Контроль и доступ к персональным данным,
- Моральные и этические вопросы, связанные с ИИ.
Регулирование ИИ должно носить пропорциональный характер, в основе которого лежит применение риск-ориентированного принципа. Он подразумевает зависимость формата регуляторных требований от объема и вероятности реализации риска использования технологии в сравнении с потенциальным положительным эффектом от ее внедрения.
Предвзятость ИИ может неверно определять основную информацию о пользователях и привести к несправедливому отказу, например, в доступе к медицинскому обслуживанию и кредитам. Без надлежащего управления системы ИИ могут создавать такие риски, как необъективное принятие решений, нарушение конфиденциальности и неправомерное использование персональных данных.
Один из инструментов регулирования ИИ и борьбы с фейками — водяные знаки (watermarks). Маркировка ИИ-контента — это процесс встраивания распознаваемого уникального знака в выходные данные ИИ-модели, например в текст или изображение, чтобы идентифицировать этот контент как созданный ИИ. Эффективный водяной знак ИИ не должен снижать производительность модели, противостоять попыткам подделки, удаления или модификации, а также быть совместимым с различными архитектурами моделей.
Правовая основа для обеспечения исследований и развития технологий ИИ и машинного обучения с целью внедрения и использования этих систем этичным и ответственным образом. Регуляторам необходимо найти баланс между саморегулированием отрасли и нормативно-правовым регулированием государства.
Эффекты от адаптации
- Улучшение клиентского опыта — 2*
- Операционная эффективность — 1*
- Рост и трансформация бизнеса — 1*
- Управление рисками — 4*
* Максимальная оценка — 4.
Кейсы адаптации тренда в России
- В России действует 13 экспериментальных правовых режимов (ЭПР) в сфере ИИ.
- На данный момент создано 180 инициативных предложений для ЭПР по направлениям: медицина, беспилотный транспорт и доступ разработчиков ИИ к наборам данных из государственных информационных систем.
- В России подписан «Кодекс этики искусственного интеллекта». Это единая система рекомендательных принципов и правил, предназначенных для создания среды доверенного развития технологий искусственного интеллекта в России. Насчитываются уже более 350 подписантов.
- В России подписана Декларация об ответственной разработке и использовании сервисов на основе генеративного ИИ. Среди подписантов — крупнейшие отечественные компании-разработчики ИИ, а также ВУЗы и отраслевые организации. Документ устанавливает этические принципы и рекомендации по ответственному отношению к ИИ не только для разработчиков и исследователей, но и пользователей нейросетевых сервисов.
- Банк России в конце 2023 года опубликовал доклад «Применение искусственного интеллекта на финансовом рынке», в котором поддерживается риск-ориентированный принцип регулирования ИИ. Банк Роосии придерживается технологически нейтрального подхода к регулированию, который позволяет участникам рынка внедрять инновации и развивать ИИ.
- В России также готовится законопроект о регулировании в сфере ИИ. Особое внимание будет уделяться защите рынка труда от негативного влияния ИИ. Законопроект должен определить ответственность за разработку систем ИИ и создаваемый с их помощью контент и исключить использование технологии мошенниками.
Продолжение следует
Источник: Пресс-служба компании Ассоциация ФинТех