26 февраля 2025 г.
Повсеместное внедрение искусственного интеллекта в бизнес-процессы существенно изменит картинку на рынке труда, уверены эксперты ГК Swordfish Security.
Уже сейчас спрос на услуги кибербезопасности в области искусственного интеллекта растет. По подсчетам экспертов компании, в первый месяц 2025 более трети запросов от клиентов включали запросы на LLM Security.
Специалисты в области LLM Security — одни из самых редких и высокооплачиваемых на рынке ИТ, подсчитали аналитики платформы hh.ru. Так в 2024 вакансий разработчиков, связанных с кибербезопасностью в области искусственного интеллекта, аналитики насчитали 878, тогда как в 2023 их было всего 154. Спрос на функционал, связанный с работой в сфере LLM Security за год вырос почти в 5,5 раз. Примерно та же картина с вакансиями аналитиков в области безопасности ИИ: по данным hh.ru, их стало больше в 5 раз (555 в 2024 против 107 в 2023). При этом, что касается разработчиков в области ИИ в целом, их востребованность даже немного снизилась, в 2024 году было открыто 483 вакансии, на 14% меньше, чем в 2023. А вот тестировщики с функционалом в области ИИ на рынке по-прежнему очень нужны, по данным HH.ru, количество вакансий для них выросло почти в три раза, со 116 в 2023 до 346 в 2024. В 2024 году самая высокая предлагаемая зарплата в вакансиях, связанных с ИИ, была на уровне 10 тыс. долларов.
«Потребность в продвинутых Data-аналитиках с функциями LLM Security будет расти в ближайшие годы. Если мы говорим про супер-массовое использование ИИ для бизнеса, очень востребованными будут разработчики, которые понимают, как поставить большую языковую модель себе на службу, при этом минимизируя потенциальные риски. Компании-новаторы в том или ином формате уже активно применяют большие языковые модели в работе, но массово вопрос кибербезопасности ИИ, полагаю, остро встанет чуть позже, пока это нечто неизведанное, интересная новая „игрушка“. Безопасность всегда следует рука об руку с разработкой, поэтому в ближайшие
Впрочем, уверяет эксперт, некоторые потенциальные риски уже очевидны. К примеру, массовое применение чат-ботов в В2С зачастую приводит к репутационным потерям, ведь встроенной этики у бота нет. В числе потенциальных угроз в больших языковых моделях инъекции вредоносного кода в промпт, уязвимости в цепочках поставок, выдача ошибочной информации за истину на этапе обучения модели и даже кража модели злоумышленниками. Для бизнеса, который не учел эти риски, отсутствие экспертизы в LLM Security может привести к серьезным потерям.
По оценкам экспертов Swordfish Security, не менее 40% крупных компаний в России так или иначе внедряют ИИ в бизнес-процессы. Большие языковые модели используют для анализа данных, предиктивной аналитики, поиска, оценки ресурса механических узлов промышленных агрегатов, написания кода для ПО. А значит, потребность в специалистах, которые сумеют обеспечить безопасность использования ИИ будет расти.
Источник: Пресс-служба компании Swordfish Security