30 января 2025 г.

Последние два-три года глобальный ИТ-рынок выглядел не самым здоровым образом: практически все его направления в большей или меньшей степени стагнировали — за исключением тех, что так или иначе были связаны с искусственным интеллектом. Уверенно развивался выпуск всё более производительных серверных графических плат, ёмких чипов оперативной памяти для ускоренной обработки непрерывно растущих в объёмах генеративных моделей, мощных блоков питания и средств стабилизации электроснабжения для всей этой чрезвычайно прожорливой в энергетическом плане машинерии — и, пожалуй, всё. Производство же классических серверов, ПК, смартфонов и т. п. велось куда более скромными темпами — в полном соответствии с не самым радужным состоянием мировой экономики, высокой инфляцией практически на всех страновых рынках, политически индуцированными затруднениями трансграничной торговли и т. п.

Ситуация вполне объяснимая: на ИИ была сделана серьёзная ставка сразу множеством игроков из самых разных отраслей хозяйства — поскольку (если обещания его разработчиков всё-таки воплотятся в жизнь в полном объёме, чего пока ещё не произошло) повсеместное внедрение генеративных моделей действительно позволит значительно сократить издержки и повысить производительность труда, отбив тем самым все вложения. При этом, что важно для общего понимания ситуации, долгое время — речь о десятилетиях — искусственный интеллект развивался по принципу «чем больше, тем лучше».

Иными словами, чтобы превзойти предыдущую модель по качеству выдаваемых результатов — имеется в виду практическая применимость генерируемых ИИ ответов, готовность управления им автономными машинами для решения реальных задач на производстве и т. п. — следующая обязана была оказаться крупнее (т. е. требовать больше оперативной памяти для своего исполнения), сложнее (а значит, для тренировки и исполнения её нужно более мощное и энергоёмкое «железо»), а также обучаться на более обширном наборе данных (что подразумевает накопление этого набора, его обработку, хранение, — всё это тоже дополнительные аппаратные ресурсы и время).

В результате себестоимость тренировки генеративных моделей, рассчитываемая как сумма затрат на серверное «железо», на электроэнергию для его питания в процессе работы, на формирование исходного массива данных и проч., неуклонно росла. Обучение вышедшей в свет в 2020 г. модели GPT-3, скажем, обошлось компании OpenAI (точнее, её инвесторам) в 4,6 млн долл. США, тогда как для GPT-4, анонсированной в 2023-м, аналогичные расходы оцениваются более чем в 100 млн долл. В 2024-м для новейших моделей приемлемой ценой тренировки считался уже 1 млрд долл., и эксперты всерьёз рассуждали, что в 2025-м, не имея хотя бы 10 млрд, нет смысла даже ввязываться в эту гонку. Понятно, что с такой финансовой накачкой — а инвесторы весьма щедро вливали деньги в ИИ-отрасль, достаточно взглянуть на капитализацию Nvidia, достигшую в ноябре 2024 г. пика в 3,5 трлн долл., — связанные с искусственным интеллектом сегменты ИТ-рынка находились на подъёме.

И вот ближе к концу января как гром среди ясного неба в новостные ленты ворвалась китайская ИИ-модель DeepSeek в вариантах V3 и R1 — мало того, что с открытым кодом (её возможно даже скачать для локальной установки на ПК, хватило бы только вычислительной мощности), так ещё и бесплатно доступная через веб-интерфейс. Приложение DeepSeek возглавило список наиболее загружаемых на iOS в США, Великобритании и ряде других стран, а американский фондовый рынок отреагировал на появление новики весьма нервозно, — в результате высокотехнологичные компании потеряли в биржевой стоимости около 1 трлн долл., из которых примерно полтриллиона пришлось как раз на Nvidia.

Чем же разработка никому, за исключением специалистов, не ведомого китайского стартапа так напугала инвесторов? Да тем, что само её появление опровергло принцип «чем больше, тем лучше»: тренировали её на двух тысячах урезанных по производительности серверных ускорителей Nvidia (поскольку стараниями Минторга США официальный экспорт только таких вычислителей в КНР сегодня и разрешён), а не на 20-40 тыс. полноценных, как у американских соперниц, и обошлось такое обучение всего-то примерно в 5,6 млн долл. Иными словами, при затратах, характерных для тренировки GPT-3 почти уже пятилетней давности, DeepSeek проявляет себя вполне на уровне современных GPT-4o и Claude Sonnet 3.5, в ряде синтетических тестов даже опережая их. И с точки зрения рядового заказчика, если разницы практически нет, — зачем платить больше?

Триумф DeepSeek объясняется ставкой китайских разработчиков на несколько отличную от классической программную архитектуру генеративного ИИ, — виртуальный «ансамбль экспертов», эффективно эксплуатирующий лишь часть огромного массива тренировочных данных для обработки каждого фрагмента запроса. Такой подход позволяет кардинально снизить аппетиты модели — в плане как нагрузки на аппаратную основу, так и энергопотребления. В результате примерно тех же самых ответов, что генерируют классические генеративные ИИ, удаётся добиться с меньшими на 2-3 десятичных порядка затратами. Выходит, вместо бездумного вваливания триллионов долларов во всё более крупные и прожорливые модели, можно поколдовать над программной архитектурой — и получить сопоставимый результат. Рынок к такому явно не был готов!

Американские ИТ-гиганты вроде Microsoft уже отчитываются о пересмотре в сторону снижения прежних наполеоновских планов экстенсивного развития своих дата-центров. Понятно, что вычислительных мощностей и для скроенных по-новому ИИ всё равно будет требоваться больше, — но уже не настолько больше, чем представлялось неизбежным совсем недавно. Разработчики генеративных моделей уже рассуждают о готовности повысить эффективность очередных поколений своих продуктов по меньшей мере десятикратно.

А значит, безумную гонку на этом участке мирового ИТ-рынка имеет все шансы сменить более поступательное, вдумчивое развитие — для которого (что особенно важно с точки зрения КНР и других стран, экспорт сверхсовременного «железа» западной разработки в которые запрещён) не потребуются запредельные расходы на аппаратное обеспечение. Может, и прочие ИТ-сегменты, до сих пор продолжавшие стагнировать, на этом фоне получат больше внимания за счёт высвободившихся средств глобальных инвесторов?

Источник: Максим Белоус, IT Channel News