Искусственный интеллект научили забывать жестокий контент

Методы «машинного отучения» помогают программам забыть информацию, защищенную авторскими правами или содержащую чувствительный контент. Исследователи из Техасского университета в Остине разработали «метод машинного отучения» для генеративного искусственного интеллекта (ИИ), создающего изображения. Технология помогает программе забыть и перестать использовать иллюстрации, защищенные авторскими правами, и усвоенный при обучении жестокий контент, например, сцены насилия.

Генеративные модели ИИ обучаются в основном на данных из Интернета. Проблема в том, что помимо полезной информации программы, как дети во дворе, «подхватывают» множество лишнего: личную информацию, опубликованную в сети, снимки, защищенные авторскими правами, и неприемлемый контент. Все эти данные используются при работе программ для генерации новых изображений.

Когда вы тренируете модели на огромных наборах данных, вы обязательно включаете нежелательную информацию. Раньше единственным способом удалить проблемный контент было отказаться от всего, начать заново, вручную извлечь все эти данные и переобучить модель. Наш подход дает возможность сделать это без необходимости переобучать модель с нуля, – Раду Маркулеску, соавтор исследования.

Алгоритм, предложенные исследователями, позволяет передавать ИИ «стоп лист»: загружать изображения, которые необходимо забыть. После обработки программа перестает использовать забытое изображение при генерации нового контента.

Инженеры успешно протестировали работу алгоритмов на двух наборах изображений. Принципы работы технологии описаны в препринте статьи, опубликованном на портале arXiv.

kontent1.pngИллюстрация удаления контента из памяти ИИ. Изображение: Guihong Li et al., arXiv

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек