14 августа 2023 г.
Хакеры нашли способ вводить ИИ в заблуждение и использовать его в зловредных операциях.
«Это достигается за счет уязвимости к оперативным инъекциям (prompt injection). Такой вид атаки проводимой хакером заключается в том, что производится активное влияние на поведение ИИ за счет простых команд, вводимых на английском языке в тексте запроса. Данный факт еще раз подчеркивает необходимость постоянного обеспечения ИБ для ИИ в процессе всего жизненного цикла системы, а также то, что ИИ в будущем будет активно использоваться в качестве рабочего инструмента как для „белых“, так и для „черных“ хакеров. В итоге — для систем класса ИИ появилась своя социальная инженерия», — заявил главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников.
Ранее Иоганн Ребергер, эксперт в области безопасности данных, сумел модифицировать ChatGPT таким образом, чтобы он мог выполнить ряд потенциально опасных команд.
Источник: Пресс-служба компании «Газинформсервис»