Состязательные атаки на ИИ открывают возможности махинаций в здравоохранении

Небольшая группа исследователей из Гарвардского университета и Массачусетского технологического института (MIT) в заметке, опубликованной журналом Science, указала на потенциальную опасность состязательных атак для будущих медицинских систем искусственного интеллекта (ИИ).

Как показали предыдущие исследования, практически все системы ИИ в большей или меньшей степени уязвимы для состязательных атак (adversarial attack), цель которых — обмануть обученную модель. Авторы даже продемонстрировали как изображение, содержащее особую шумовую структуру, приводит в замешательство интеллектуальную систему распознавания, заставляя её выдавать неверные результаты.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Компьютерное обозрение