Нужна ли роботам эмпатия?
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Мы стоим на пороге революции в робототехнике, и учёные с инженерами пытаются понять, как это отразится на людях. Мнения разделились на два лагеря: будущее сулит нам робоапокалипсис а-ля «Терминатор», либо роботы займут место собак в роли лучших друзей человека. И с точки зрения ряда современных мыслителей и визионеров, второй сценарий возможен лишь при наличии эмпатии у роботов. Точнее, у искусственного интеллекта.
Последствия бездушности ИИ недавно в полной мере ощутила Microsoft, потерпев сокрушительное фиаско со своим знаменитым чат-ботом по имени Тэй. Он был запрограммирован обучаться на основе взаимодействия с пользователями Twitter. В результате толпы троллей моментально превратили 19-летнюю девушку, в роли которой выступал бот, в сексуально озабоченного нациста-расиста. Разработчикам пришлось отключить бота через сутки после запуска. Этот случай так наглядно продемонстрировал важность проблемы пошедшего в разнос ИИ, что одно из подразделений Google — DeepMind — совместно со специалистами из Оксфорда занялось разработкой технологии «аварийного выключателя» для ИИ, пока те не превратились в настоящую угрозу.
Суть в том, что ИИ, не уступающий по уровню разума человеку, и опирающийся лишь на самостоятельное развитие и оптимизацию, может придти к заключению, что люди хотят его отключить или препятствуют в получении желаемых им ресурсов. И в соответствии с этим умозаключением искусственный интеллект решит действовать против людей, вне зависимости от того, насколько обоснованы его подозрения. Довольно известный теоретик Элиезер Юдковски однажды написал:
«ИИ не будет ни любить, ни ненавидеть вас. Но зато вы сделаны из атомов, которые он может использовать для своих нужд».
И если угроза от ИИ, «живущего» в облачном суперкомпьютере, кажется вам сейчас довольно эфемерной, то что вы скажете насчёт полноценного робота, в электронных мозгах которого зародится мысль о том, что вы мешаете ему жить?
Один из способов быть уверенными в том, что роботы, и вообще ИИ, останутся на стороне добра, заключается в том, чтобы нашпиговать их эмпатией. Не факт, что этого будет достаточно, но это необходимое условие по мнению многих специалистов. Мы просто вынуждены будем создать роботов, способных к сопереживанию.
Не так давно Илон Маск и Стивен Хокинг написали в Центр изучения экзистенциальных рисков (Centre for the Study of Existential Risk, CSER) открытое письмо, в котором призвали приложить больше усилий в исследование «потенциальных ловушек» в сфере ИИ. По мнению авторов письма, искусственный интеллект может стать опаснее ядерного оружия, а Хокинг вообще считает, то эта технология станет концом человечества. Для защиты от апокалиптического сценария предлагается создавать сильный ИИ (AGI, artificial general intelligence) со встроенной психологической системой по типу человеческой, либо полностью моделировать в ИИ нервные реакции человека.
К счастью, время ещё не упущено и можно решить, в каком направлении нам двигаться. По мнению сообщества экспертов, появление сильного ИИ, не уступающего человеку, возможно в диапазоне от 15 до 100 лет с текущего момента. При этом границы диапазона отражают крайние степени оптимизма и пессимизма, более реалистичные сроки — 30–50 лет. Помимо риска заполучить опасный ИИ без моральных принципов, многие опасаются, что текущие экономические, социальные и политические неурядицы могут привести к тому, что создатели сильных ИИ будут изначально стремиться превратить их в новое оружие, средство давления или конкуренции. И далеко не последнюю роль здесь будет играть разнузданный капитализм в виде корпораций. Крупный бизнес всегда безжалостно стремится оптимизировать и максимизировать процессы, и обязательно возникнет соблазн «заплыть за буйки» ради получения конкурентных преимуществ. Одни правительства и корпорации наверняка попытаются привлечь сильные ИИ к управлению рынками и выборами, а также к разработке новых вооружений, и другим странам придётся адекватно отвечать на эти шаги, втягиваясь в гонку ИИ-вооружений.
Никто не может утверждать, что ИИ обязательно превратится в угрозу человечества. Поэтому нет нужды пытаться запретить разработки в этой сфере, да это и бессмысленно. Похоже, что одними лишь законами робототехники Азимова нам не обойтись, и необходимо по умолчанию внедрять «эмоциональные» предохранители, позволяющие сделать роботов мирными и дружелюбными. Чтобы они могли создавать подобие дружеских отношений, могли распознавать и понимать эмоции людей, возможно, чтобы даже могли сопереживать. Этого можно добиться, например, с помощью копирования нейронной структуры человеческого мозга. Некоторые специалисты считают, что теоретически возможно создать алгоритмы и вычислительные структуры, способные действовать как наш мозг. Но поскольку мы ещё сами не знаем, как он устроен, то это задача на отдалённую перспективу.
На рынке уже есть роботы, способные чисто технически распознавать некоторые человеческие эмоции. Например, Nao) — высотой всего 58 см и весом 4,3 кг, робот оснащён ПО для распознавания лиц. Он способен устанавливать зрительный контакт и реагировать, когда с ним заговаривают. Этот робот использовался в исследовательских целях для помощи детям-аутистам. Другая модель от того же производителя — Pepper) — способна распознавать слова, выражения лица и язык тела, действуя в соответствии с полученной информацией.
Но ни один из современных роботов не способен чувствовать. Для этого им необходимо самосознание, только тогда роботы смогут чувствовать то же, что и люди, смогут думать о чувствах.
Нам всё лучше удаётся имитировать в роботах внешность человека, но с внутренним миром всё гораздо сложнее
Обладать эмпатией — означает способность понимать в других те же чувства, что ты когда-то испытывал. А для этого роботы должны проходит свой собственный период взросления, с его успехами и неудачами. Они должны будут испытать привязанность, желание, успех, любовь, гнев, беспокойство, страх, может быть и ревность. Чтобы робот, думая о ком-то, думал и о чувствах человека.
Как обеспечить роботам подобное взросление? Хороший вопрос. Возможно, удастся создать виртуальные эмуляторы/тренажёры, в которых ИИ будут набираться эмоционального опыта, чтобы потом быть загружены в физические тела. Либо формировать искусственные шаблоны/воспоминания и штамповать роботов со стандартным набором морально-этических ценностей. Подобные вещи предвидел писатель-фантаст Филип К. Дик , в его романах роботы часто оперируют искусственными воспоминаниями. Но у эмоциональности роботов может быть и другая сторона: в недавнем фильме Ex Machina описывается ситуация, когда робот, управляемый сильным ИИ, настолько достоверно демонстрирует эмоции, что вводит в заблуждение людей, заставляя их следовать его плану. Вопрос: как отличить, когда робот всего лишь хитро реагирует на ситуацию, или когда он действительно испытывает те же эмоции, что и вы? Сделать ему голографический нимб, цвет и рисунок которого подтверждают искренность выражаемых роботом эмоций, как в аниме «Время Евы» (EVE no Jikan)?
Но допустим, нам удалось решить все вышеупомянутые проблемы и найти ответы на поднятые вопросы. Будут ли тогда роботы равны нам, или они будут стоять ниже нас на социальной лестнице? Должны ли люди управлять их эмоциями? Или это будет своеобразное высокотехнологичное рабство, согласно которому роботы с сильными ИИ должны быть думать и чувствовать так, как нам хочется?
Есть немало трудных вопросов, на которые пока нет ответа. В данный момент наши социальные, экономические и политические структуры не готовы к подобным радикальным переменам. Но всё же нам рано или поздно придётся искать приемлемые решения, потому что остановить разработки в сфере робототехники никому не под силу, и когда-нибудь сильный ИИ, способный функционировать в антропоморфном теле, будет создан. Нам необходимо заранее подготовиться к этому.
- Источник(и):
- Войдите на сайт для отправки комментариев