ИИ-технологии потребляют слишком много энергии: правда или миф

Автор оригинала: Daniel Castro. Перевод – KOD E @APPKODE. Как и обо всех новых технологиях, об искусственном интеллекте уже успело сформироваться немало легенд. Например, о том, что сложные ИИ-модели вроде GPT-3 или DALLE оставляют огромный углеродный след и оказывают разрушительное воздействие на окружающую среду. В поисках истины мы нашли материал с интересной точкой зрения и перевели ее для вас.

В последние годы заголовки в СМИ часто пугали читателей количеством электроэнергии, нужной для развития цифровых технологий. Например, когда в 2019 году Apple, Disney и HBO и другие видеостриминговые сервисы анонсировали платные подписки для конкуренции с Netflix, Amazon и YouTube, СМИ написали, что «согласно заявлению Французского аналитического центра, получасовой просмотр Netflix генерирует такой же выброс CO₂, как проезд на машине 6,5 километров». Год спустя аналитический центр обнаружил ошибку в вычислениях и подсчитал, что получасовой просмотр Netflix по количеству CO₂ сопоставим скорее с проездом на машине от 10 до 100 метров, но об этом СМИ не написали.

История не нова: например, во времена бума доткомов в 1990-е годы одна статья в Forbes сообщала: «Каждый раз, когда в Интернете заказывают книгу, где-то в США сгорает кусок угля». Этой судьбы не удалось избежать и ИИ-технологиям, поэтому в материале мы разобрали популярные логические ошибки и заблуждения, а также выяснили, сколько на самом деле потребляют энергии и выбрасывают CO₂ крупные ИИ-модели.

Дисклеймер: материал является переводом статьи Центра инноваций в области данных. Мы незначительно сократили его без искажения сути.

Энергопотребление ИИ-технологий и углеродный след

Непросто подсчитать, сколько энергии потребляет и CO₂ выбрасывает ИИ-модель. В уравнении много переменных: чипы и системы охлаждения, конструктивные особенности дата-центров, ПО, рабочая нагрузка и источники энергии, используемые для генерации электричества. Однако несколько исследований поделили работу ИИ-модели на два этапа: обучения и генерацию ответов на запросы, и попытались выдать оценку.

Обучение ИИ-систем

Одно из первых крупных исследований провел Массачусетский университет в Амхерсте в 2019 году. В ходе него выяснилось, что BERT — большая языковая модель (LLM) Google, за 79 часов обучения выбросила 1438 фунтов CO₂. Для сравнения: перелет из Нью-Йорка в Сан-Франциско приводит к выбросу 1000 фунтов CO₂ на одного пассажира. Также исследователи оценили выброс CO₂ во время обучения ИИ-модели по поиску нейронной архитектуры (NAS) — для машинного обучения это одна из наиболее сложных вычислительных задач. Обучение NAS привело к выбросу 626 155 фунтов CO₂, что эквивалентно 300 перелетам туда и обратно с Восточного побережья США на Западное.

Результаты исследования стали сенсацией и разлетелись по заголовкам популярных СМИ. Даже уважаемые научные издания вроде MIT Technology Review публиковали материалы вроде «Обучение одной ИИ-модели может выбросить в атмосферу столько же CO₂, сколько пять автомобилей за всю свою жизнь». Авторы статей думали, что обучение ИИ-модели — типичный пример ее повседневной деятельности, а также сообщали, что несмотря на крупный выброс CO₂, обучение лишь незначительно улучшило модель.

Позже оказалось, что исследователи из Массачусетского университета в Амхерсте сделали несколько ложных предположений, которые завысили их оценку энергопотребления и выбросов CO₂. В ответ на их исследование NAS предоставили подробную сводку о своей ИИ-модели и отметили, что фактические выбросы были в 88 раз меньше. К сожалению, СМИ не обратили внимания на их заявление.

В последующие годы было опубликовано множество исследований об энергопотреблении и выбросе CO₂ при обучении известных ИИ-моделей. Мы свели данные из открытых источников в таблицу (см. ниже) и увидели, что логика «Чем сложнее и крупнее ИИ-модель, тем больше энергии она израсходует и тем больший углеродный след оставит» — неверна.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр