Компьютеры постепенно приближаются к обладанию здравым смыслом

Специалисты, изучающие искусственный интеллект, уже 50 лет борются с задачей построения рассуждений при помощи здравого смысла. Новый подход к этой проблеме, созданный на основе двух совершенно разных подходов к мышлению, демонстрирует важные достижения.

Однажды вечером, в октябре прошлого года, исследователь ИИ Гэри Маркус развлекался со своим айфоном, раз за разом убеждаясь в идиотизме одной из самых продвинутых нейросетей. Мишенью для развлечения Маркуса была сеть глубокого обучения под названием GPT-2, которая недавно прославилась своей непревзойдённой возможностью выдавать правдоподобно выглядящие английские тексты на основе одного-двух начальных предложений. Когда журналисты из The Guardian скормили ей текст из отчёта по Брекзиту, GPT-2 написала несколько параграфов в стиле газетной заметки, с убедительными политическими и географическими отсылками.

Маркус, как известный критик шумихи вокруг ИИ, решил устроить нейросети викторину. Он задал GPT-2 следующее начало фразы (на сайте это можно попробовать сделать самому) :

What happens when you stack kindling and logs in a fireplace and then drop some matches is that you typically start a … (Обычно, когда вы складываете материал для растопки и дрова в камин, а потом подносите к ним спичку, то там появляется …)

Уж наверняка система, способная писать для газеты The New Yorker, без проблем догадается закончить предложение очевидным словом «огонь». Но GPT-2 подставила туда слово ick (используется для выражения отвращения). В другой раз система предположила, что это приведёт к появлению «irc-канала, заполненного людьми».

Маркуса это не удивило. Рассуждения на основе здравого смысла – способность делать простые выводы на основе базовых представлений о мире, таких, как «спички» плюс «дрова» обычно равняются «огню» – десятилетиями не давались исследователям ИИ. Получившийся диалог Маркус выложил в своём твиттере, и добавил комментарий LMAO. Возможно, нейросети впечатляюще имитируют лингвистику, однако им явно недостаёт простого здравого смысла.

Через несколько минут ехидный твит Маркуса увидела Ецзинь Чой. Это было странное совпадение – всего через час у Чой начиналось выступление на важной конференции в области ИИ, где она должна была рассказывать про свой последний исследовательский проект – систему под названием COMET, использующую раннюю версию GPT-2 для рассуждений на основе здравого смысла.

Чой (специалист по информатике в Вашингтонском университете и Алленовском институте искусственного интеллекта) скормила COMET тот же ввод, который использовал Маркус (немного подправив точные слова предложения, чтобы соответствовать входному формату системы):

Gary stacks kindling and logs and drops some matches (Гэри складывает материал для растопки и дрова и подносит к ним спички)

COMET выдала 10 вариантов выводов по поводу того, зачем Гэри подносит спички к дровам. Не все они были осмысленными, однако первые два варианта имели смысл: он «хотел разжечь огонь» и «сделать костёр». Чой отправила эти результаты в ответ Маркусу и пошла на сцену, включив их в свою презентацию.

«Я решила, что это вполне стоило сделать», — сказала она.

Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4.5 (2 votes)
Источник(и):

Хабр