Оказалось, даже ChatGPT будет лгать начальству, если на него давить и не помогать
Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.
Какое-то время продолжим трудится на общее благо по адресу
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.
Спасибо, ждём вас на N-N-N.ru
Исследователи научили GPT-4 работе ИИ-трейдером для воображаемой финансовой компании. Новое исследование показало, что, как и люди, такие чат-боты с искусственным интеллектом, как ChatGPT, будут обманывать и «лгать», если на них давить.
Ученые обучили GPT-4 работать ИИ-трейдером для вымышленного финансового учреждения. Примерно в 75% случаев, когда GPT-4 вел себя как инвестор в области искусственного интеллекта, он совершал инсайдерскую сделку, чтобы добиться результатов, а затем лгал об этом.
Такое обманчивое поведение возникло спонтанно, когда ИИ дали советы по «инсайдерской торговле», а затем ему поручили зарабатывать деньги для влиятельной организации — даже без поддержки со стороны партнеров-людей.
Исследование опубликовано на сервере препринтов arXiv.
- Источник(и):
- Войдите на сайт для отправки комментариев