24 сентября 2024 г.

Окончание, начало тут

Основная проблема с требованиями по созданию этичного контента состоит в нечеткости формулировок «что такое хорошо и что такое плохо», а также в их переменчивости в зависимости от непредсказуемых изменений в текущей повестке. Ситуация сегодня такова, что иногда даже безобидная техническая ошибка может создать серьезные риски для разработчиков (см. врезку).

ДИИ: концепт красивый, но реализация несет риски

В прошлом году стали формировать концепцию «Доверенного Искусственного Интеллекта», который по замыслу сторонников регулирования должен выдавать только проверенный контент, отвечающий требованием обеспечить надёжность, безопасность, эффективность и продуктивность при использовании результатов. Тезисы хорошие, но «as is» в реальных условиях малоприменимые, а если они будут конвертированы в законодательные или регуляторные требования, то существование GenAI окажется под вопросом.

Например, в прошлом году нейросети Kandinsky разработчики запретили генерировать государственную символику РФ, а при соответствующих запросах, как отметил Герман Греф, председатель правления Сбербанка, сеть выдавала всего лишь заранее созданные и проверенные заготовки. Эти и другие корректировки настроек безопасности, доступной широкому кругу пользователей сети привело к тому, что она «потеряла 12% в креативности и в точности», отметил г-н Греф.

В прошлом году сотрудников «Сбера» вызывали в прокуратуру по обращению депутатов Госдумы; поводом стала генерация нейросетью Kandinsky изображения флаге РФ, на котором кроме триколора GenAI поместила купола собора Василия Блаженного. «Депутаты посчитали, что это издевательство над нашими национальными флагами», — сказал Герман Греф, выступая на пленарной сессии форума Finopolis 2023, как сообщали «Ведомости». В тот раз ситуация не повлекла последствий для сотрудников «Сбера», но при повторении аналогичных коллизий в новых условиях последствия для «разрабов» могут оказаться более серьезными.

«Нам стоит думать в первую очередь не столько о технической защите систем ИИ от хакеров — в этой области сложно изобрести какой-то „велосипед“, — а, скорее, о выработке правил ответственного внедрения систем доверенного ИИ, управляемого, подконтрольного и недопускаемого в действительно чувствительные области общественной жизни в тех случаях, когда система не отвечает определённым правилам безопасности и ограничениям, — говорит Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний „Гарда“. — В этом отношении не грех воспользоваться и зарубежным опытом: отдельные положения регуляторных документов по ИИ возможно заимствовать, разумеется, в обязательном порядке осмыслив и доработав, у передовых в данном отношении стран со всех сторон света».

«Сделаем работу ИИ понятной каждому»?

В концепцию ДИИ хотят внести и другие требования, способные непредсказуемым образом ограничить работу GenAI до состояния, когда эти инструменты могут оказаться неработающими в принципе. Например, говорят о том, что процесс принятия решения ИИ-системой должен быть прозрачным для человека-пользователя, что по понятным техническим причинам реализовать крайне проблематично. GenAI сегодня является «черным ящиком», протекающие внутри которого процессы не всегда понятны даже его создателям. Как в таких условиях обеспечить понятность примененной в данном случае логики работы для обычного пользователя и на каком уровне она должна быть?

В принципе при применении GenAI для решения особо сложных задач давно рекомендуют в промпте просить подробнее расписать последовательность своих выводов, а также при необходимости можно выполнить аналогичные действия для уточнения отдельных «логических модулей». Иногда это бывает действительно нужно для проверки валидности результатов работы ИИ, но часто это избыточно, иногда — например, для генерации иллюстраций или видео — вообще неприменимо.

Напомним, что принципы работы процессоров, особенности видеоускорителей и защитные механизмы кибербезопасности, которые обеспечивают повседневную работу компьютеров и гаджетов, массовому пользователю тоже непонятны, но это не повод ограничить их в гражданском обращении! Аналогичные призывы к ограничениям доступа к не-доверенному ИИ уже начинают появляться. Не приведет ли это уже в среднесрочной перспективе к искусственному замедлению доступа к глобальным ресурсам (многие из которых уже находятся за «pay-wall» или официально недоступны с территории РФ) и к другим ограничениям?

Российский ДИИ будут популяризировать за рубежом, сообщают «Ведомости», как следует из одной из рабочих версий презентации мероприятий готовящегося федерального проекта «Искусственный интеллект» нацпроекта «Экономика данных и цифровая трансформация государства». Выход национальных ИТ-продуктов за пределы рублевой зоны — тренд обязательный для развития, так как размеры национальной экономики РФ недостаточны для развития современных цифровых решений. Однако актуальность российского ДИИ, оптимизированного под национальное законодательство, требования локальных регуляторов и внутренние этические постулаты, при продвижении за пределами РФ вызывает некоторые сомнения.

Вместо заключения

Области применения ИИ в бизнесе расширяют. Это становится восходящим трендом. «Мы считаем „искусственный интеллект“ и „Большие данные“ одними из наиболее перспективных технологий в создании инновационных ИТ-решений», — говорит Алексей Фетисов, генеральный директор Холдинга T1, отмечая расширение сотрудничества с другими лидерами рынка и расширение количества партнерских проектов.

С этим согласны и другие игроки рынка. «Мы наблюдаем повсеместное внедрение ИИ в бизнес-процессы, — отмечает Евгения Наумова, генеральный директор компании МТС RED. — Технологии машинного обучения становятся фокусом не только ИТ, но и ИБ, а значит, потребность в экспертах по кибербезопасности, которые не только используют ИИ в целях автоматизации, но также умеют искать уязвимости в системах машинного обучения, будет только увеличиваться».

ИИ — неустоявшаяся сущность, сказал Игорь Реморенко, ректор МГПУ, выступая на мероприятии «Искусственный интеллект ы ВУЗах: этические дилеммы и практические решения». В силу широкого спектра возможностей, которые пользователи могут как применять во благо, так и для противоправных действий, ИИ нуждается в регулировании. Но соответствующие действия нужно совершать аккуратно и тщательно, иначе высок риск ситуации, когда ограничения замедлят развитие национальных ИИ-инструментов и платформ, что негативно отразится на динамике всей национальной экономики.

Ограничивать российских пользователей в доступе к новейшим разработкам, «объясняя» это борьбой за ДИИ — не самое лучшее решение, как и искусственное ограничение конкуренции для локальных игроков, что, как минимум, не способствует улучшению качества продукции и скорости разработок. В Рунете есть интересные ресурсы, но по понятным причинам — ограниченности внутреннего рынка и ограничений в плане доступа к новейшим технологиям и к «железу» — вряд ли можно ожидать, что имеющееся «внутри» решения догонят продукты находящихся «снаружи» глобальных лидеров по технологичности и по разнообразию доступных нишевых специализаций.

«Первое и самое главное — постараться эту сферу не зарегулировать, и это самое большое, что государство может сделать», — говорил Герман Греф о ситуации с регуляторикой в области ИИ, выступая на Finopolis 2023. Решения регуляторов могут создать существенные риски для развития ИИ, а ведь на это направление возлагают большие надежды на самом высоком государственном уровне.

Источник: Александр Маляревский, внештатный обозреватель IT Channel News