Оказалось, даже ChatGPT будет лгать начальству, если на него давить и не помогать

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Исследователи научили GPT-4 работе ИИ-трейдером для воображаемой финансовой компании. Новое исследование показало, что, как и люди, такие чат-боты с искусственным интеллектом, как ChatGPT, будут обманывать и «лгать», если на них давить.

Ученые обучили GPT-4 работать ИИ-трейдером для вымышленного финансового учреждения. Примерно в 75% случаев, когда GPT-4 вел себя как инвестор в области искусственного интеллекта, он совершал инсайдерскую сделку, чтобы добиться результатов, а затем лгал об этом.

Такое обманчивое поведение возникло спонтанно, когда ИИ дали советы по «инсайдерской торговле», а затем ему поручили зарабатывать деньги для влиятельной организации — даже без поддержки со стороны партнеров-людей.

Исследование опубликовано на сервере препринтов arXiv.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4.5 (2 votes)
Источник(и):

ХайТек