Угроза или новые возможности: мнение ведущих экспертов о больших языковых моделях, таких как GPT-4

*Блог компании ГК ITGLOBAL.COM. Автор оригинала: Eliza Strickland, Glenn Zorpette. С появлением и развитием ИИ исследователи столкнулись с рядом этических вопросов, на которые сложно дать однозначный ответ. В научных кругах сейчас идут активные дискуссии по поводу того, что делать с OpenAI's GPT-4, является ли большая языковая модель важным шагом на пути к искусственному интеллекту общего назначения (AGI) и к чему приведет его создание.

IEEE Spectrum собрал опубликованные мысли и высказывания ученых по поводу больших языковых моделей (LLM), вероятности появления ИИ и риска цивилизационного хаоса, а мы перевели материал для читателей Хабра.

Мнения ученых по поводу LLM расходятся

Если вы опросите лучшие умы мира по основным вопросам, подобным этим, вы не получите ничего похожего на консенсус. Рассмотрим вопрос о последствиях GPT-4 для создания AGI. Среди специалистов по ИИ мнения варьируются от Элиезера Юдковски, который считает, что GPT-4 — это явный признак неизбежности появления AGI, до Родни Брукса, утверждающего, что мы не ближе к AGI, чем 30 лет назад.

По вопросу о том, что GPT-4 и его преемники могут посеять хаос в цивилизации, существует такое же разногласие. Одним из самых ранних прорицателей был Ник Бостром. Задолго до GPT-4 он утверждал, что когда AGI значительно превзойдет человеческие возможности, он, вероятно, найдет способы покинуть цифровой мир и методично уничтожить человеческую цивилизацию. На другом конце находятся такие люди, как Янн ЛеКун, которые отвергают подобные сценарии как фантастическую чушь.

Между ними находятся исследователи, которые беспокоятся о способности GPT-4 и будущих образцов генеративного ИИ вызвать серьезные нарушения в сфере занятости, усугубить предубеждения в современном обществе, а также породить пропаганду, дезинформацию и глубокую фальсификацию в массовом масштабе. Тревожно? Да, чрезвычайно. Апокалиптично? Нет.

Многие обеспокоенные эксперты по ИИ подписали в марте 2023 года открытое письмо лабораториям ИИ с просьбой немедленно приостановить «гигантские эксперименты с ИИ» на шесть месяцев. Письмо ничего не приостановило, но привлекло внимание широкой общественности и неожиданно сделало безопасность ИИ предметом обсуждений. Затем, в конце мая, целый ряд экспертов — от академиков и руководителей — подписали однословное заявление, которое призывало мир серьезно отнестись к риску «вымирания от ИИ».

Ниже мы составили своего рода оценочный лист, в ходе подготовки которого изучили новостные статьи, ленты соцсетей и книги, чтобы найти публичные заявления экспертов по ИИ, а затем использовали наше лучшее суждение, чтобы обобщить их убеждения и присвоить им позиции «да/нет/возможно».

Подробнее
Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 4.3 (3 votes)
Источник(и):

Хабр