Этичность Искусственного Интеллекта

Блог компании Маклауд. Искусственный интеллект все плотнее входит в нашу жизнь. Его внедряют в разные отрасли, порой даже самые неожиданные. Начинают сбываться одни из самых смелых прогнозов фантастов — ИскИны помогают людям в повседневной жизни. Будут ли сбываться другие прогнозы о порабощении человечества компьютерами и подобное мрачное будущее?

Пока сложно судить о том, когда нас поработят роботы. Но может пора задуматься о моральной стороне и решить, насколько этично использовать нейросети в некоторых вопросах? Именно об этом пишет Кейт Кроуфорд в своей статье, опубликованной на сайте Nature, с переводом которой я предлагаю вам ознакомиться и обсудить то, насколько актуальна эта проблема.

В начале статьи будет перевод, потом я расскажу идеи из других ее публикаций, потом повспоминаю о том, как подобная проблема описывалась в различных фантастических произведениях. Затем предлагаю сравнить с тем, как обстоят дела в текущий момент и решить, насколько обоснованы ее опасения. Итак, перевод.

Пришло время заняться регулированием ИИ, который интерпретирует человеческие эмоции

Пандемию используют как предлог для внедрения непроверенных инструментов ИИ на рабочие места и в школы.

Во время пандемии технологические компании предлагали свои программы распознавания эмоций для дистанционного наблюдения за рабочими и даже детьми. Например, возьмем систему 4 Little Trees. Утверждается, что программа, разработанная в Гонконге, оценивает эмоции детей во время занятия в классах. Она считывает черты лица, чтобы определить категорию эмоционального состояния ученика: счастье, печаль, гнев, отвращение, удивление и страх. Также она измеряет мотивацию и прогнозирует оценки. Такие же инструменты были проданы для наблюдения за сотрудниками на удаленной работе. По некоторым предположениям, к 2026 году индустрия распознавания эмоций будет оцениваться в 37 миллиардов долларов.

Среди ученых существуют серьезные разногласия по вопросу, может ли ИИ распознавать эмоции. В обзоре, вышедшем в 2019 году, утверждается, что не найдено надежных доказательств этого предположения. “Tech companies may well be asking a question that is fundamentally wrong,” the study concluded (L. F. Barrett et al. Psychol. Sci. Public Interest 20, 1–68; 2019)

Растет озабоченность по поводу неправильного использования этих технологий. В прошлом году Розалинда Пикард, которая является соучредителем бостонского стартапа Affectiva (компания занимается разработкой ИИ распознающего эмоции и психологическое состояние человека. прим пер.) и возглавляет Группу по аффективным вычислениям (аффективные вычисления — раздел информатики, изучающий распознавание и моделирование человеческих аффектов, придуманный и развиваемый Розалиндой. прим. пер.) в MTI, заявила, что поддерживает регулирование. Ученые призывают к обязательному и строгому аудиту всех технологий ИИ, используемых при найме сотрудников и раскрытию полученных результатов.

В марте гражданская комиссия, созванная Институтом Ады Лавлейс, выступила с заявлением, что для контроля разработки и внедрения биометрических технологий необходим независимый юридический орган. Такой надзор нужен для защиты от систем, внедрение которых продвигается тем, что я называю “френологическим импульсом” (Френология — лженаука о связи строения черепа и характера человека. прим. пер.): получение ошибочных предположений о внутреннем состоянии и способностях человека по внешним проявлениям, чтобы узнать о нем больше, чем он хочет рассказать.

Во всех странах есть нормативные акты, обеспечивающие научную строгость при разработке лекарственных препаратов, предназначенных для лечения организма. Инструменты, предъявляющие претензии к нашему разуму, тоже должны быть защищены в той же мере. Ученые много лет призывали федеральные органы к контролю за робототехникой и распознаванием лиц, это должно распространяться и на распознавание эмоций. Пришло время, чтобы национальные законодательные органы приняли меры против неотработанных технологий, особенно тех, которые нацелены на детей и другие уязвимые группы населения.

Уроки, извлеченные из клинических испытаний, показывают значение контроля. Федеральные требования и последующая пропаганда сделали данные множества клинических испытаний доступными для общественности и предметом строгой проверки. Это становится основой для выработки более эффективной политики и укрепления доверия со стороны общественности. Надзор со стороны регулирующих органов за аффективными технологиями привел бы к аналогичным выгодам и подотчетности. Он также мог способствовать установлению норм для противодействия превышению полномочий правительством и корпорациями.

Хорошая аналогия — полиграф. Детектор лжи был изобретен в 20-х годах прошлого века и десятилетиями использовался военными и ФБР, с противоречивыми результатами, которые принесли много вреда тысячам людей, пока его использование в значительной степени не было запрещено федеральным законом (речь идет только про США. прим. пер.). Только в 1998 году Верховный суд США пришел к выводу, что “просто не было единого мнения о надежности полиграфа.”

Главной персоной, стоящей за утверждением, что существуют несколько универсальных выражений лиц обозначающих эмоции, является Пол Экман. В 60-х годах прошлого века он путешествовал по высокогорным районам Папуа-Новой Гвинеи для проверки своей спорной гипотезы о том, будто все люди проявляют небольшое количество универсальных эмоций, которые являются врожденными и мультикультурными. Антрополог Маргарет Мид оспаривала эту идею, говоря о том, что она не учитывает контекст, культуру и социальные факторы.

Проблема в том, что “шесть основных эмоций”, описываемых Экманом, отлично вписываются в модель развивающего компьютерного зрения. Как я писала в своей книге 2021 года: Атлас ИИ, его теория была принята потому, что она соответствовала возможностям инструментов. Шесть последовательных эмоций легко стандартизировать, автоматизировать и масштабировать, если игнорировать более сложные вопросы. Экман продал свою идею Управлению транспортной безопасности США после терактов 11 сентября 2001 года, чтобы оценивать, какие пассажиры проявляют страх или стресс (то есть, каждый первый, кто боится летать, а таких примерно треть населения. прим пер.) и потому могут быть террористами. Его резко критиковали за отсутствие доверия и расовую предвзятость. Тем не менее, многие современные инструменты, такие как 4 Little Trees, основаны на классификации шести эмоций по Экману. При этом Экман утверждает, что лица действительно выражают универсальные эмоции, но говорит, что не видел никаких доказательств того, что автоматические системы действительно работают.

Однако, компании продолжают торговать программным обеспечением, которое будет влиять на шансы людей, не имея четко документированных и проверенных независимыми экспертами доказательств своей эффективности. Кандидатов на вакансии судят несправедливо только потому, что их выражение лица не совпадает с мимикой сотрудников, или они слишком громко разговаривают. Учеников ругают в школах за то, что они выглядят хмурыми. Исследования доказали, что программа распознавания лиц интерпретирует черные лица так, будто на них выражается больше негативных эмоций, чем на белых.

Мы больше не можем позволить, чтобы технологии распознавания эмоций оставались неконтролируемыми. Настало время для законодательной защиты от недоказанного использования этих инструментов во всех сферах: образовании, здравоохранении, рекрутинга и уголовном правосудии. Эти меры предосторожности приведут к возвращению точной науки и отвергнут мифологию о том, что внутренние состояния — просто еще один набор данных, которые можно считать с наших лиц.

________________________________________

Это не единственная статья Кейт Кроуфорд на эту тему, на сайте Nature есть еще две: Halt the use of facial-recognition technology until it is regulated 2019 года и There is a blind spot in AI research 2016 года. Они посвящены тем же проблемам и призывам к запрету бесконтрольного применения технологий распознавания лиц потому, что их точность недостаточна и может привести к ошибкам, которые слишком дорого встанут людям, с которыми обойдутся несправедливо из-за программного глюка. Например, при распознавании личности белого мужчины ошибки составляют примерно 1%, а темной женщины — 35%. Плюс ко всему, эти технологии нарушают приватность граждан. Например, Amazon собирается сотрудничать с полицейскими управлениями, передавая им данные со своих камер домашнего наблюдения Ring.

Как это представляли

emocii1.png

Распознавание добра и зла — одна из основных тем фольклора. Фантазия авторов неисчерпаема.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр