Эрик Ларсон: «Без абдукции машины никогда не смогут думать как люди»

Очевидные успехи в глубоком обучении возродили интерес к человекоподобным машинам или универсальному искусственному интеллекту. Есть мнение, что построив достаточно большую и производительную нейронную сеть, мы приблизимся к созданию цифровой версии человеческого мозга. Однако, по мнению специалиста по информатике Эрика Ларсона, это миф.

Все данные указывают на то, что люди и машины радикально отличаются друг от друга. В новой книге Ларсон рассуждает о том, как распространенные заблуждения ограничивают инновации и научные открытия в области ИИ.

С научной точки зрения, миф об ИИ предполагает, что мы добьемся универсального искусственного интеллекта (УИИ) путем развития узкоспециализированных приложений, например, распознающих изображения и генерирующих человеческую речь. Однако, технологии, лежащие в основе этих ИИ-систем, не способны на то, что должен уметь УИИ: поддерживать разговор, выполнять простую работу по дому, проявлять базовый здравый смысл.

«Успешно используя более простые, специализированные версии интеллекта, которые появляются благодаря более быстрым компьютерам и массе данных, мы не прогрессируем, а лишь срываем самый легко доступный плод», — говорит Ларсон, специалист по информатике и автор книги «The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do».

Этот миф об ИИ приводит к тому, что ученые игнорируют загадку интеллекта и рассуждают только о понятном прогрессе в методах машинного обучения и прочих вычислительных технологий. Это мешает искать новые пути решения проблемы УИИ.

Машинный интеллект осваивает два типа умозаключений — дедуктивный и индуктивный, рассказывает Venture Beat. Первый лежит в основе символического ИИ, который был популярен в первые десятилетия ИИ: инженеры создают символическую систему с заданными правилами и фактами, а машина использует эти знания в рассуждениях о полученных данных. Индукция — получение знаний из опыта — привлекла внимание разработчиков ИИ в последнее время, когда стало возможно обучать модели на больших данных.

Однако существует и третий тип умозаключений, о котором писал ученый Чарльз Сандерс Пирс в XIX веке. Он назвал его абдукцией — умением выдвигать гипотезы и предположения, отметая маловероятные решения и приходя к наиболее правдоподобному выводу. Фактически, это и есть здравый смысл. Он служит «клеем», связующим два других типа умозаключений и позволяет сосредоточиться на важном среди массы разнообразной информации. Проблема в том, считает Ларсон, что ИИ-сообщество не уделяет достаточного внимания абдукции.

Некоторые ученые, в том числе, Ричард Саттон, пионер обучения с подкреплением, полагают, что следует придерживаться прежних методов, показавших свою эффективность в работе с большими данными. Они считают, что будущие нейросети, став больше и мощнее, смогут преодолеть свои ограничения и привести к новому прорыву. Ларсон отвергает этот путь как «фундаментально порочный», поскольку он не основан на использовании абдукции.

Другие исследователи возлагают надежды на гибридные системы вроде IBM Watson, состоящие из символических систем и нейросетей. Но Ларсон уверен, что они могут оказаться полезны только для машинного обучения или подхода, основанного на правилах. Сочетание дедуктивно-индуктивных систем не приведет к абдукции. В своей книге он называет попытки обмануть абдукцию ловушкой.

Кроме того, автор предостерегает от опасностей современной культуры ИИ, которая «выжимает прибыль из низко висящего плода» узкоспециализированного ИИ. Эта иллюзия прогресса может, по его мнению, привести к новой «зиме искусственного интеллекта».

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (5 votes)
Источник(и):

ХайТек+