На встрече с сенаторами Маск назвал ИИ угрозой человечеству, а Гейтс — спасением

Илон Маск, Билл Гейтс, Марк Цукерберг и другие важные фигуры в технологической индустрии обсудили перспективы и риски искусственного интеллекта с более чем 60 членами американского Сената. Целью закрытой встречи было обсуждение регулирования этой быстро развивающейся отрасли.

Законодатели готовят законопроект, направленный на установление стандартов и нормативов в сфере искусственного интеллекта, управление рисками и последствиями его использования. Встреча показала, что остается еще много спорных моментов — от злоупотребления ИИ преступниками до потери рабочих мест.

Форум был организован по инициативе Чака Шумера, лидера демократического большинства в Сенате США. В числе участников были гендиректор Tesla Илон Маск, гендиректор Meta Platforms (организация признана экстремистской и запрещена на территории России) Марк Цукерберг, гендиректор Alphabet Сундар Пичаи, гендиректор NVIDIA Дженсен Хуанг, гендиректор Microsoft Сатья Наделла и другие.

На встрече поднимались вопросы регулирования и надзора за использованием искусственного интеллекта. Участники обсудили необходимость создания независимого агентства, которое будет контролировать определенные аспекты применения ИИ. Каждому участнику было дано три минуты для выступления, после чего началось общее обсуждение.

Например, Илон Маск предупредил о потенциальной угрозе искусственного интеллекта для человечества. А Билл Гейтс высказал противоположную точку зрения, утверждая, что искусственный интеллект может помочь в решении глобальной проблемы голода.

Спорным оказался вопрос об открытых моделях ИИ, которые позволяют использовать эти технологии без больших затрат на обучение. Возникают опасения, что преступники могут злоупотреблять такими разработками.

Тристан Харрис, глава некоммерческой организации Center for Humane Technology, сообщил, что общедоступная модель Meta Llama 2 (организация признана экстремистской и запрещена на территории России) была использована для создания инструкций по изготовлению опасных соединений. Марк Цукерберг парировал, что такие инструкции доступны в интернете, даже без использования ИИ-моделей, и что публикация открытых проектов «способствует равным условиям и инновациям для людей и бизнеса».

Опасения также вызывает возможная потеря рабочих мест для сотен миллионов людей. Некоторые руководители технологических компаний, однако, указывают на то, что слишком жесткие ограничения подорвут ведущую позицию США в этой отрасли. Другой спорной темой стал риск того, что системы ИИ могут уничтожить человечество, поэтому их следует контролировать уже сейчас.

Хотя во встрече участвовали представители групп по защите гражданских прав и профсоюзы, по мнению некоторых экспертов, это мероприятие усиливает впечатление, что крупные фирмы озабочены только своими интересами. Сара Майерс Уэст, управляющий директор некоммерческой организации AI Now Institute, подсчитала, что общее состояние участников форума составляет $550 млрд. По данным индекса Bloomberg Billionaires Index, акции технологических компаний в этом году резко выросли на фоне интереса к искусственному интеллекту, что привело к увеличению состояний пяти ведущих технокомпаний на сумму в $222,5 млрд. Особенно сильный рост продемонстрировала компания NVIDIA, акции которой выросли более чем на 200%.

Все присутствующие сошлись на том, что отрасль ИИ должна развиваться под контролем государства. Илон Маск назвал эту встречу «очень важной для будущего цивилизации» и описал искусственный интеллект как «палку о двух концах».

Он подчеркнул необходимость создания регулирующего органа, который будет обеспечивать безопасность и защищать интересы общества. Однако Маск также отметил, что он не уверен в готовности Конгресса регулировать ИИ. Он призывает законодателей тщательнее изучить различные аспекты искусственного интеллекта, прежде чем предпринимать законодательные шаги. Существуют множество тем, таких как авторское право, приватность, расовая дискриминация, экономические связи с Китаем и военное применение ИИ, которые требуют дальнейшего изучения.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ХайТек+