Глава OpenAI: «Пугающие ИИ-инструменты вот-вот появятся»

В серии сообщении в Твиттере Сэм Альтман, руководитель компании-разработчика языковой модели GPT и нашумевшего чатбота ChatGPT, в очередной раз призвал умерить пыл в отношении новых инструментов искусственного интеллекта. Несмотря на их преимущества и потенциал, обществу, по его словам, нужно время, чтобы адаптироваться к столь серьезному сдвигу. И призвал к обязательному регулированию этой технологии, причем чем быстрее, тем лучше.

В минувшее воскресенье глава OpenAI опубликовал несколько твитов, в которых оценил переход к будущему, в котором ИИ играет большую роль, «по большей части» положительную. И произойдет это, скорее всего, быстро — так же, как весь мир быстро перешел к эре смартфонов. Однако он предупредил, что обществу необходимо больше времени, чтобы приспособиться к столь существенным изменениям.

«Нам также нужно время для того, чтобы понять, что делать. Регулирование необходимо и потребует времени; хотя ИИ-инструменты этого поколения не очень пугающие, я думаю, в потенциале мы не так уж далеки от потенциально пугающих», — написал Альтман.

Он подчеркнул, что одна из проблем чатботов с ИИ в том, что «люди, поговорив с чатботом, чувствуют беспокойство, даже если понимают, что происходит на самом деле».

Этот феномен недавно можно было наблюдать на примере нового поисковика Bing компании Microsoft, которая использовала технологию ChatGPT. В беседах с пользователями Бинг иногда капризничал, обижался, обзывался и угрожал. Позже Microsoft пояснила, что долгие разговоры могут «сбить модель с толку», и она будет пытаться давать ответы, имитируя тон заданных ей вопросов, и это может привести к некорректной манере общения. Поэтому сейчас общение с Бинг было ограничено пятью вопросами за сессию.

Альтман не впервые говорит о необходимости регулирования ИИ. Одна из первых таких публичных записей появилась в его блоге в 2015 году. В идеальном мире, писал он, регулирование должно затормозить плохих и ускорить хороших людей. Мира Мурати, технический директор OpenAI, тоже говорила в февральском интервью журналу «Тайм» об опасности злоупотреблений возможностям ChatGPT, если не будет должного надзора.

Пожалуйста, оцените статью:
Ваша оценка: None Средняя: 3.3 (4 votes)
Источник(и):

ХайТек+