24 октября 2024 г.
Технологии генеративного искусственного интеллекта (GenAI) призваны повысить производительность исследовательского процесса и способствовать достижению мирового лидерства ЕС в исследованиях и разработках. Усилия европейских законодателей также направлены на управление рисками, связанными с использованием GenAI. Институт статистических исследований и экономики знаний НИУ ВШЭ изучил европейские рекомендации по регулированию применения ИИ для целей науки.
Мировой контекст регулирования сферы ИИ
Вопросы регулирования искусственного интеллекта (ИИ) давно включены в повестку многих стран и международных организаций. В 2016 г. в США приняли первый законодательный акт в этой сфере, а к 2022 г. их количество в мире возросло до 37. В 2023 г. страны G7 согласовали международный кодекс и руководящие принципы для компаний-разработчиков ИИ, также на уровне Евросоюза и 28 других государств была подписана Декларация Блетчли по безопасному применению ИИ (подробнее — в материале «Регулирование искусственного интеллекта: первые шаги»).
В 2024 г. международные законодатели сфокусировались на обеспечении ответственного и этичного использования ИИ, в том числе в науке. Так, ОЭСР обновила рекомендацию по ИИ (первый межправительственный стандарт по ответственному управлению надежным ИИ), разработала подход к классификации систем ИИ и запустила проект по мониторингу применения кодекса G7 для компаний-разработчиков ИИ. ЮНЕСКО приняла два документа: рекомендацию по этике ИИ и руководство по использованию GenAI в образовании и научных исследованиях. Всемирная организация здравоохранения (ВОЗ) обновила руководство «Этика и управление ИИ в здравоохранении», а Совет Европы разработал Рамочную конвенцию об ИИ, правах человека, демократии и верховенстве права.
Ускоренное продвижение ИИ в европейскую науку
В январе 2024 г. Европейская комиссия (ЕК) в рамках создания европейского центра экспертизы в области ИИ и реализации положений Закона об ИИ (AI Act) учредила надзорный орган регулирования ИИ (AI Office). Он осуществляет деятельность на трех уровнях: политическом, нормативно-правовом и контроля безопасности, а также отвечает за координацию европейской политики в сфере ИИ и взаимодействие как со странами — членами ЕС, так и с более широким экспертным и научным сообществом.
Европейская группа главных научных советников (European Group of Chief Scientific Advisors) предложила учредить своего рода «ЦЕРН для ИИ» (CERN for AI) — Европейский распределенный институт по использованию ИИ в науке (European Distributed Institute for AI in Science, EDIRAS), призванный обеспечить исследователям, использующим ИИ, особые условия (доступ к высокопроизводительным вычислительным мощностям, устойчивой облачной инфраструктуре, высококачественным данным и специализированным программам обучения). На его создание и деятельность в течение ближайших пяти-семи лет предполагается выделить до 100 млрд евро (104,8 трлн руб.) из бюджета формируемого Европейского научного совета по ИИ в науке.
В апреле 2024 г. ЕК выпустил рекомендации по поддержке применения ИИ в исследованиях, в том числе касающиеся повышения доступности ресурсов для проведения научных исследований с использованием ИИ, улучшения условий их финансирования, развития кадрового потенциала в данной сфере, а также повышения качества получаемых результатов (рис. 1). Документ учитывает результаты оценки европейской и международной политики в области ИИ, анализ возможностей и барьеров, препятствующих масштабированию использования ИИ в науке.
В рамках инициативы EuroHPC по формированию европейской суперкомпьютерной экосистемы мирового класса планируется к 2025 г. создать «фабрики ИИ» (см. справку) и обеспечить к ним доступ разным категориям пользователей, включенных в инновационную экосистему ЕС, — от исследовательских институтов до промышленных предприятий и учреждений госсектора. При этом эксклюзивный доступ будет предоставляться ИИ-стартапам и МСП для тестирования и проверки моделей GenAI. Общие инвестиции на создание и развитие «фабрик ИИ» из средств программ Horizon Europe, Digital Europe и других, в том числе частных, источников на период до 2027 г. могут составить до 4 млрд евро (419,5 млрд руб.).
«Фабрики ИИ» (AI Factory) — объединенные в открытую экосистему специализированные суперкомпьютеры, используемые для разработки, тестирования, оценки и валидации генеративных моделей ИИ, требующих значительных вычислительных мощностей. Выступают центрами развития приложений ИИ в ключевых для ЕС областях (здравоохранение, энергетика, промышленность, метеорология и др.). На текущий момент закуплены девять суперкомпьютеров, три из которых входят в топ-10 самых мощных в мире. ЕС покрывает организациям, размещающим на своей базе «фабрики ИИ», до 50% стоимости суперкомпьютеров и до 50% эксплуатационных расходов. Также запланировано грантовое финансирование на разработку микропроцессоров и передовой экспериментальной суперкомпьютерной платформы, оптимизированной для работы с моделями ИИ, приобретение / модернизацию суперкомпьютеров, создание сервисов и развитие навыков.
В рамках еще одной инициативы — GenAI4EU — с бюджетом 500 млн евро (52,4 млрд руб.) до 2027 г. предполагается стимулировать использование GenAI в 14 направлениях: в области естественных наук, здравоохранения, биотехнологий, сельского хозяйства, энергетики, производства и машиностроения, изменения климата и экологической устойчивости, мобильности, кибербезопасности, разработки виртуальных миров и цифровых двойников, а также в сфере освоения космоса.
Преимущества и риски использования GenAI в науке
Использование GenAI для анализа и обработки данных значительно ускоряет исследовательский процесс в части обобщения литературы, обнаружения закономерностей и планирования экспериментов. Генеративные ИИ-модели позволяют структурировать большие массивы данных, создавать новую информацию на основе имеющейся, строить прогнозы, повышать качество получаемых результатов и снижать стоимость исследований за счет оптимизации вычислительных ресурсов.
Европейский исследовательский совет отмечает, что наиболее очевидные преимущества использования GenAI заключаются в более эффективном решении рутинных или трудоемких задач низкого уровня, устранении языковых барьеров, автоматической обработке больших массивов данных и извлечении из них релевантной теме исследования информации, в общем повышении производительности и расширении форматов представления научных результатов разным аудиториям (рис. 2).
Несмотря на существенные преимущества, GenAI имеет ряд технических ограничений и несет определенные риски. Отслеживающая инциденты, связанные со злоупотреблением ИИ, инициатива AIAAIC фиксирует с 2012 г.
Рекомендации ЕС для ученых, организаций и инвесторов по вопросам управления ИИ
Важным направлением регулирования GenAI является разработка этических принципов, охватывающих такие области, как конфиденциальность, защита данных, алгоритмическая справедливость и предотвращение неправомерного использования.
В марте 2024 г. ЕК выпустила руководство по ответственному использованию GenAI. Документ содержит рекомендации ученым, научно-исследовательским организациям и финансовым институтам по обеспечению прозрачности, конфиденциальности и соблюдению прав ИС при применении ИИ. За учеными как за авторами научных работ предлагается закрепить ответственность за генерируемый с помощью ИИ контент. Они обязаны будут уведомлять о применении инструментов GenAI, обеспечивать воспроизводимость и надежность получаемых таким образом результатов, нести ответственность за использование для генерации контента неопубликованных или конфиденциальных данных, включая персональные данные третьих лиц, задействованных без их согласия. Научно-исследовательским организациям рекомендуется переходить к суверенным центрам обработки данных, локальным или облачным инструментам GenAI под собственным управлением, также им вменяется ответственность за обеспечение кибербезопасности при работе их сотрудников с ИИ-моделями; контроль за созданием и использованием научных результатов, полученных с использованием GenAI; разработка этических и юридических требований к их применению. Финансирующие организации должны будут обеспечивать прозрачные механизмы финансирования исследований с использованием GenAI, обязывать грантополучателей информировать о фактах такого использования и соблюдать стандарты конфиденциальности.
Резюме
За последний год GenAI эволюционировал в один из важных факторов обеспечения национальной конкурентоспособности и цифрового суверенитета целого ряда ведущих стран. При этом глобальное регулирование отстает от темпов технологического прогресса.
Несмотря на существенные преимущества использования GenAI (в виде сокращения расходов, ускорения процессов разработки и внедрения научных результатов, решения комплексных задач с использованием больших массивов данных), его распространение несет в себе и угрозы, касающиеся возможного искажения научных результатов, что часто невозможно проверить (сами ученые не всегда относятся критически к генерируемому контенту и перепроверяют данные).
Особые опасения вызывает непрозрачность применения GenAI: непредставление подробных сведений об использовании данного инструмента, его влиянии на процесс исследования, проблемы с интерпретируемостью и воспроизводимостью результатов. Неравенство в доступе к ресурсам обусловливает превосходство технологических гигантов в создании моделей GenAI над академическим сообществом, которое ограничено в возможностях использования больших наборов данных и вычислительных мощностей.
Для развития исследований с применением ИИ и одновременно обеспечения единых стандартов безопасности, контроля рисков и управления инструментами GenAI Евросоюз формирует систему соответствующих надзорных органов, институтов и программ господдержки.
Источники: официальные доклады и веб-сайты ОЭСР, Европейской комиссии, Европейского союза; результаты проекта «Комплексное научно-методологическое и информационно-аналитическое сопровождение разработки и реализации государственной научной, научно-технической политики» тематического плана научно-исследовательских работ, предусмотренных Государственным заданием НИУ ВШЭ.
Источник: Елена Сабельникова, Михаил Гершман, ИСИЭЗ НИУ ВШЭ