Коалиция ученых призывает ускорить изучение сознания у ИИ

Могут ли системы искусственного интеллекта обрести сознание? По словам представителей Ассоциации математического исследования сознания (AMCS), ответ на этот вопрос никто сегодня дать не может, но хуже то, что научных изысканий в этой области ведется слишком мало. Без своевременного изучения вопросов сознания систем ИИ люди окажутся перед лицом реальных проблем правового, этического и технического характера. Например, если ИИ разовьет сознание, правильно ли будет выключать его после использования?

Эти и подобные вопросы не поднимались на недавней дискуссии по безопасности ИИ на прошедшем в Великобритании саммите AI Safety, сказал член правления ассоциации AMCS Джонатан Мейсон, математик из Оксфорда: «Учитывая все, что происходит с ИИ, неизбежно будут возникать другие смежные отрасли знаний, которые необходимо будет развивать».

И сознание — одна из таких отраслей.

Наука не может дать определенный ответ на вопрос, возникнет ли сознание в ИИ или нет, пишет Nature. Даже определить наличие сознания в машине — и то непросто, поскольку ученые еще не разработали прошедших испытание методов. И этот вопрос уже не только сюжет научной фантастики. Компании вроде OpenAI не скрывают своего стремления разработать универсальный ИИ со сверхчеловеческими возможностями. По разным оценкам, подобные системы могут появиться через 5–20 лет. При этом на научные исследования последствий появления сознания у машины не выделено ни одного гранта.

Исследователи AMCS считают, что важнейшим условием разработки универсального ИИ должна стать оценка его воздействия на общество, включая возможные угрозы. Если такая система не разделяет ценности и интересы человека как вида, она представлять для него слишком большую опасность.

Помимо этого, люди должны понять и потребности сознающего ИИ. Испытывает ли такая система боль? В состоянии ли страдать? У человечества мало опыта общения с обладающими сознанием видами, которые на нас совсем не похожи, и важно не допустить ошибки в оценке наличия сознания в ту или другую сторону. Такая оценка влечет за собой ряд правовых вопросов: следует ли считать ИИ ответственным за совершенное преступление? Имеет ли он те же права, что и человек?

Ассоциация AMCS — состоящая из специалистов по математике, информатике и философии — намерена обратиться к миру с конкретными предложениями, и готовит отчет о том, как следует контролировать технологию ИИ. Он должен быть опубликован в середине 2024 года.

Идея о том, что машинный интеллект однажды может стать разумным, больше не кажется научной фантастикой. Но как мы могли бы узнать, обрел ли машинный мозг разум? Особенно с учетом того, что тест Тьюринга откровенно устарел с появлением больших языковых моделей. Ответ предложила группа нейробиологов.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 5 (2 votes)
Источник(и):

ХайТек+