Google: наш «телефонный» ИИ недостаточно хорош, чтобы быть опасным

Не так давно корпорация Google продемонстрировала работу цифрового ассистента Google Duplex, который способен разговаривать по телефону, резервируя место в отеле, парикмахерской или ресторане вместо человека. Нечто вроде виртуального секретаря, причем с очень человеческим голосом. Настолько человеческим, что новостные ресурсы стали публиковать информацию о возможной опасности ассистента.

На днях представители компании Google постарались сделать все, чтобы убедить тех, кто боится, в безопасности своего детища. Бросать проект компания ни в коем случае не намерена. Более того, в течение этого лета возможности помощника станут доступными для ограниченного числа пользователей Google Assistant. Ассистент поможет заказать столик в ресторане или выбрать необходимое время для стрижки в ближайшей парикмахерской.

Демонстрация возможностей системы поразила многих. И не только тем, что помощник внятно отвечал на вопросы и вообще поддерживал беседу, но и тем, что общение машины с человеком практически нельзя отличить от общения человека с человеком. Все эти «угу», «эммм», «нуууу», которые старательно эмулировала программа (понятно, в англоязычном варианте всех этих восклицаний), уж очень похожи на то, как ведет себя человек в ходе разговора.

Так в чем проблема? Ну говорит себе программа и говорит, если все это похоже на общение людей — тем лучше, прогресс компьютерных систем налицо. На самом деле, эксперты по информационной безопасности и обычные люди боятся того, что голосового помощника смогут использовать в самых разных целях злоумышленники или представители разного рода спецслужб. И отличить компьютер от человека практически невозможно.

Ну а похитить информацию личного характера при помощи такой системы легче легкого — она умеет убеждать. Во всяком случае, в демонстрационных роликах все выглядит именно так.

«При демонстрации технологий возникает много вопросов. Один из них: „Вы, ребята, создали ИИ высшего порядка, который способен быть очень похожим на человека, включая телефонные переговоры?“, — говорит Скотт Хаффман, вице-инженер Google по инженерным вопросам. Хаффман говорит, что на самом деле цифровой ассистент очень, очень далек от того, чтобы быть похожим на человека. „То, что мы создали на самом деле, это три автоматически “обученных» системы, у каждой из которых есть четкая задача: спрашивать о расписании, резервировать и назначать время стрижки. Это все, что машина может делать", — говорит Хаффман.

Кроме всего прочего, Google добавил в функционал системы церемониал представления. Машина сообщает о том, что она машина, так что проблемы с пониманием ситуации у собеседника быть не должно.

Что касается того, что технологию можно использовать не во вполне положительных целях, сотрудники Google уже высказались. «Многие технологии могут испльзоваться как во благо, так и во вред человечества», — сообщил Ник Фокс, вице-президент Google. Он также считает, что очень важно давать знать пользовтаелям о том, кто именно звонит в настоящий момент.

Для создания такой системы команда Google попросила обычных сотрудников колл-центров резервировать столик в ресторан или стрижку в парикмахерской. В ходе «общения» обязательно возникал диалог определенного характера, который сотрудники Google записывали и использовали для обучения ИИ. На первый взгляд, получилось весьма неплохо.

Сейчас Duplex отлично справляется с вопросом бронирования столиков, причем в полне анонимно. Тем не менее, у Google есть команда операторов, которые могут действовать в полневых условиях. Что интересно, так это то, что в Google считают текущие способности системы к общению не очень высокими.

В целом, Google сейчас пытается доказать, что в ее проекте нет «ничего личного, только бизнес». В принципе, скорее всего, так дело и обстоит, ведь вряд ли компания старается вырастить ИИ, который спустя некоторое время будет охотиться на человеков. Нет, дело здесь в чистой коммерции, и вскоре, надо полагать, вопрос действительно будет решен.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (1 vote)
Источник(и):

habr.com