Оказалось, даже ChatGPT будет лгать начальству, если на него давить и не помогать

Исследователи научили GPT-4 работе ИИ-трейдером для воображаемой финансовой компании. Новое исследование показало, что, как и люди, такие чат-боты с искусственным интеллектом, как ChatGPT, будут обманывать и «лгать», если на них давить.

Ученые обучили GPT-4 работать ИИ-трейдером для вымышленного финансового учреждения. Примерно в 75% случаев, когда GPT-4 вел себя как инвестор в области искусственного интеллекта, он совершал инсайдерскую сделку, чтобы добиться результатов, а затем лгал об этом.

Такое обманчивое поведение возникло спонтанно, когда ИИ дали советы по «инсайдерской торговле», а затем ему поручили зарабатывать деньги для влиятельной организации — даже без поддержки со стороны партнеров-людей.

Исследование опубликовано на сервере препринтов arXiv.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4.5 (2 votes)
Источник(и):

ХайТек