Мы так и не смогли защитить свою модель машинного обучения от состязательных атак. Пока | DevsDay.ru

IT-блоги Мы так и не смогли защитить свою модель машинного обучения от состязательных атак. Пока


Наша команда разработчиков Исследовательского центра доверенного искусственного интеллекта ИСП РАН первые два года занималась построением сетевой системы обнаружения вторжений, основанной на применении методов машинного обучения. А в последний год мы сменили щит на меч и начали атаковать состязательными атаками (adversarial attacks) синтезированную нами же модель.

Задача была простой: оценить устойчивость модели к состязательным атакам. Спойлер: модель не устойчива, а как это исправить — мы пока не знаем. Подробности ниже.

Читать далее

Источник: habr.com

Наш сайт является информационным посредником. Сообщить о нарушении авторских прав.

machine learning система обнаружения вторжений random forest artificial intelligence network security ids scikit-learn обучение с учителем