10 сентября 2024 г.

У ИИ как направления три большие проблемы: недостаток данных для обучения; увеличение доли контента, созданного нейросетями; и быстро растущее энергопотребление. Упомянутые проблемы кажутся далекими от оперативных вопросов российского рынка и тактического планирования, но их понимание важно и для отечественных игроков. ИИ сегодня стал драйвером ИТ и начинает с нарастающей активностью драйверить национальные экономики.

В данном случае под ИИ мы понимаем, прежде всего, генеративный искусственный интеллект.

«GenAI-технологии становятся всё более универсальными, а их внедрение и применение в каждом конкретном продукте упрощается и удешевляется», — говорит Андрей Белевцев, старший вице-президент «Сбербанка» и руководитель блока «Технологическое развитие».

Подчеркнем, что речь идет не о Artificial general intelligence («искусственном разуме»), а о Generative Artificial Intelligence — подмножестве моделей для генерации текста, иллюстраций, звука, видео и других документов или медиаданных. Но и GenAI уже активно внедряют в российской практике (см. врезку).

Нейросети меньшего масштаба также активно применяют для задач бизнеса, они работают в десятках прикладных систем: от инструментов аналитиков и ИИ-ассистентов до «улучшайзеров» и «шумодавов» в решениях для корпоративных коммуникаций.

Проблема № 1: Недостаток данных для обучения

Для обучения GenAI нужны большие объемы данных, из которых можно легально «нарезать» датасеты, а с этим уже серьезные проблемы. На первый взгляд это удивительно — много лет на всех уровнях говорили об «экономике данных», о возрастающих потоках, которые нужно обрабатывать и хранить, и т. д. Откуда же взялся дефицит?

Во-первых, современная экономика генерирует гораздо больше данных, чем современные же ИТ способны сохранять для дальнейшего использования. Не более 10% от генерируемых данных сохраняют — точные значения зависят от вертикального рынка, особенностей предприятия и прочих локальных особенностей — остальные оказываются утеряны, в лучшем случае часть из этого объема успевают обработать «на лету».

Во-вторых, для обучения рассматриваемого нами универсального GenAI подойдут не любые данные. Например, технические данные о режимах работы авиадвигателей представляют интерес для инженерного анализа, но вряд ли могут быть применены для обучения GenAI.

Примеров внедрений GenAI уже много даже в российской практике: свыше 4 тыс. российских компаний уже подключили GigaChat, нейросетевую модель «Сбера», и используют её в своей работе, говорит Александр Ведяхин, первый заместитель Председателя Правления «Сбербанка». Заметим, что среди пользователей есть крупные компании, например, СИБУР, которая внедрила в свои бизнес-процессы GigaChat, причем задействованы несколько AI-помощников: AI-ассистент инженера-диагноста, AI-советчик для оптимизации закупки материально-технических ресурсов, AI-помощник в R&D-направлении для моделирования полимеров и создания материалов с новыми свойствами, а также AI-ассистент финансиста.

В-третьих, даже данные, подходящие для создания датасетов, не всегда можно использовать легально — они попадают под ряд ограничений. Начнем с того, что значительная часть данных «ведомственные», то есть они хранятся внутри инфраструктуры различных компаний, которые не спешат делиться этой «новой нефтью» со сторонними структурами. Например, по данным на август прошлого года Google индексировал всего 136 млрд фотографий, а только самая крупная соцсеть располагала базой из 1,5 трлн фотографий, как сообщает «КоммерсантЪ». Кроме того, значительная часть данных попадают под GDPR и аналогичные законы о защите персональных данных. Наконец, кроме этого, данные бывают «закрыты» по другим причинам, например, попадая под ограничения, вызванные защитой врачебной тайны, коммерческой тайны и даже государственных секретов.

В результате новые данные, пригодные для создания датасетов, становится найти все сложнее. Но это не единственная проблема, связанная с данными!

Проблема № 2: Доля «нейророжденных» данных быстро растет

Возникают дополнительные сложности из-за обилия контента, уже созданного генеративным ИИ. Использовать созданное одними нейросетями в датасетах для обучения других GenAI по понятным причинам нельзя. Количество контента, созданного нейросетями, становится сравнимо с традиционным.

Например, за первые полтора года своего существования GenAI-сети создали свыше 15 млрд изображений, по данным Everypixel, а Google, как мы отмечали выше, на тот момент индексировал 136 млрд фотографий. Как видно, уже тогда количество доступного для обучения фотоконтента было менее чем на порядок меньше, чем сгенерированного, а объемы последнего прирастали на 34 млн изображений в день по данным годичной давности. Сейчас ситуация еще серьезней: большее количество пользователей стали использовать нейросети для генерации изображений, а количество ресурсов, способных делать это, существенно возросло, как и возможности GenAI. Отличать традиционное фото от созданного нейросетями становится все сложнее, причем сказанное справедливо для других видов изображений — графики, акварели и пр.

Исследований, охватывающих тексты или, предположим, музыку, обнаружить не удалось, но легко догадаться, что и в этих областях ситуация похожая.

Проблема № 3: Возрастающие потребности в мощностях

В данном случае речь идет как о вычислительных мощностях, так и об энергетических, нужных для работы компьютерных систем, на которых нейросети обучают и которые потом обученный GenAI используют для решения задач пользователей.

История похожая на связанную с мощностями под традиционные алгоритмические вычисления, но — «на максималках». Алгоритмические вычисления тоже требуют все больше энергии. Хотя их энергоэффективность традиционно улучшается, потребность в вычислительных мощностях растет существенно быстрее, что и приводит к неуклонному росту потребления энергии имеющимися ЦОДами.

Нейровычисления требуют дополнительного специализированного «железа», к тому же отличающегося повышенным энергопотреблением. Причину повышенной «прожорливости» нейросетевых вычислений мы рассматривали. Конечно, с развитием технологий энергоэффективность нейровычислений будут улучшать — совершенствуя как сами модели, так и нужную для их работы вычислительную составляющую, но проблема стоит остро.

В современных дата-центрах энергопотребление уже выросло до 10-14 кВт на стойку, но для нейровычислений этот показатель достигнет 40-60 кВт, по данным Newmark. Проблема оказывается несколько шире, чем обеспечение генерации дополнительных мощностей и их доставки до ЦОДов, потребуются изменения в самих дата-центрах. При кратном росте энергопотребления на стойку уже мало обеспечить требуемые мощности, придется еще изменять инфраструктурную составляющую дата-центра: выделяемое тепло нужно отводить от стоек, а потом средствами вентиляции и кондиционирования удалять из помещения ЦОДа.

Проблему удастся несколько смягчить распространением нейро-ПК (см. врезку), но только смягчить, а не решить.

Индустрия работает над переносом хотя бы части нейровычислений из ЦОДов на пользовательские устройства — как на гаджеты, так и на компьютеры. Множество несложных, но многочисленных задач благодаря совершенствованию технологий нейровычислений перенести на локальные устройства действительно можно. Вендоры начинают массово предлагать пользователям нейро-ПК-компьютеры со встроенным аппаратным чипом, оптимизированным для работы с ИИ, — которые уже в этом году по некоторым оценкам займут 18-20% сегмента, а в следующем — 50+%. Нейрочипы дешевле графических ускорителей, которые тоже способны быстро проводить ИИ-вычисления, а поэтому нейро-ПК оказываются дешевле в производстве, но при наличии УТП способны обеспечить повышенную маржинальность. Судя по всему, компьютеры, готовые к локальному исполнению вычислений GenAI, действительно получат широкое распространение, хотя следует заметить, что актуальные для массового пользователя программные решения, которым действительно нужны нейрочипы, в большом количестве пока так и не появились.

Вместо заключения

Проблемы с GenAI, как видим, очень серьезные, к их решению нужно подходить аккуратно и системно. Важно понимать, что решать их придется с привлечением инструментов как из ИТ, так и из других областей: энергетики, термодинамики, юриспруденции и т. д. В любом случае, решение потребует много денег, времени и других ресурсов, но без этого не продвинуться в развитии нейровычислений.

В российских условиях к описанным проблемам добавляются факторы, обусловленные локальной спецификой. Проблемы с вычислительными мощностями, с оборудованием для ЦОДов, с данными и пр. тут стоят гораздо острее из-за санкционного давления и ограниченности внутреннего рынка — как по объемам накопленных данных, так и, например, по возможностям привлечения инвестиций в данный сектор.

На таком фоне проблема с «галлюцинациями» ИИ уходит на второй план. О ней мы тоже поговорим, но несколько позже.

Источник: Александр Маляревский, внештатный обозреватель IT Channel News