GPT-4 приблизился к успешной сдаче теста Тьюринга

Новое исследование, проведенное Эялем Ахарони, доцентом факультета психологии штата Джорджия (США), подтвердило: когда людям показывают два ответа на этический вопрос, большинство из них считают, что ответ чат-бота лучше, чем ответ другого человека.

С целью проверить, как ИИ понимает вопросы морали, Ахарони разработал модифицированный тест Тьюринга. Студентам и искусственному интеллекту задавали одни и те же этические вопросы, а затем представили их письменные ответы 299 взрослым американцам. Испытуемых попросили оценить эти ответы, однако они не знали, кто был источником — человек либо GPT-4, мультимодальная большая языковая модель, созданная компанией OpenAI. В подавляющем большинстве случаев ответы, сгенерированные четвертой версией ChatGPT, получили более высокую оценку, чем человеческие.

«Примечательно, что люди оценили моральные рассуждения ИИ как превосходящие человеческие почти по всем параметрам, включая добродетель, интеллект и надежность. Затем, когда участников попросили назвать источник каждой оценки (человек или компьютер), результаты оказались значительно выше случайных уровней. Хотя ИИ не прошел испытание, это случилось не из-за его неполноценных моральных рассуждений, а, возможно, из-за его предполагаемого превосходства», — отметили авторы научной работы, опубликованной в журнале Scientific Reports.

Результаты исследования, по словам Ахарони, предполагают, что GPT-4 технически может пройти моральный тест Тьюринга. Его стандартная интерпретация звучит следующим образом: человек, взаимодействуя с компьютером и человеком, на основании ответов на вопросы должен определить, с кем он разговаривает.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4.5 (2 votes)
Источник(и):

Naked Science