ChatGPT спрогнозировал, как будут развиваться БЯМ в 2024 году

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Журналисты из Engadget попросили ChatGPT написать статью о положительных и отрицательных сторонах развития больших языковых моделей в ближайшем будущем. Чат-бот справился не со всеми запросами: например, он не смог привести примеры из реальной жизни и написать текст на 1200 слов. Однако он проанализировал предвзятость БЯМ, их безопасность, этические составляющие труда разработчиков, влияние на безработицу, здравоохранение, искусство и развлечения.

ChatGPT написал текст в манере студента, который старается растянуть эссе до нужного объема. С полной версией статьи можно ознакомиться тут, а мы приведём её основные тезисы.

По мнению бота, увольнение и последнее восстановление Альтмана в должности указывает, что руководству ИИ-компаний нужно задуматься об этике и прозрачности. Модель считает, что её крестного отца хотели уволить из-за недостаточной открытости с советом директоров. Она также выделила, как важна поддержка сотрудников и осведомлённость клиентов о продукте, который они используют. Разработка нейросетей должна быть подотчётной и более прозрачной, для неё нужно установить чёткие этические рамки.

ChatGPT признался, что он и его собратья подвержены предвзятости, которую они наследуют от людей. В наборах данных, на которых обучается генеративный ИИ, может содержаться искажённая информация об определённых группах и явлениях. Соответственно, чат-боты тоже могут быть уверены, что эстонцы медленные, а немцы не расстаются с кружкой пива. Кроме расовых предрассудков, нейросети иногда повторяют гендерные, религиозные, классовые и т. д. А ещё они могут транслировать вредные советы о здоровье: рекомендовать всем одну и ту же диету, не учитывая индивидуальные потребности пользователей, или составлять программу тренировки, которая не подходит людям с определёнными заболеваниями.

Дипфейки, как считает ChatGPT, приведут к серьёзным проблемам с безопасностью. Люди будут видеть всё больше правдоподобного контента, сгенерированного ИИ. Часто им будет тяжело отличить его от истины. Особенно разрушительным оказывается сочетание правды и лжи, когда к настоящим видео или фото добавляют ИИ-контент.

Чат-бот прогнозирует, что в ближайшие годы актуальной станет защита репутации и частной жизни людей от ИИ-материалов. Сейчас можно создавать видео и фото с лицами, которые не давали на это разрешение. Например, есть нейросети, которые «раздевают» изображения людей в одежде. Такой контент может стать инструментом шантажа и травли.

ChatGPT также предупредил человечество об изменениях на рынке труда. Под угрозой окажутся рабочие места, где люди выполняют рутинные и повторяющиеся задачи.

Отдельно чат-бот выделил юридические вопросы, такие как авторское право. Кому будут принадлежать права на контент, сгенерированный ИИ — автору запроса или разработчику? Или даже самой технологии, что пытается доказать Стивен Талер?

Среди положительных аспектов проникновения ИИ в человеческую жизнь ChatGPT назвал повышение креативности и производительности, сотворчество человека и технологий, индивидуальный пользовательский опыт, больше развлечений и новые возможности в искусстве. Отдельно стоит революция в сфере здравоохранения — нейросети учитывают больше параметров и работают быстрее людей, поэтому они смогут быстро ставить диагноз, приняв к сведению все симптомы и анализы пациента, а также синтезировать новые лекарства.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+