Доверяют ли люди искусственному интеллекту? Результаты исследования в пяти развитых странах

Автор: Анатолий Зазулин. В марте этого года свет увидели результаты совместного исследования международной аудиторской фирмы KPMG и Университета Квинсленда (Австралия), посвященного теме доверия к искусственному интеллекту (ИИ). В ходе исследования были опрошены более 4 500 людей из стран с развитой экономикой и высоким уровнем жизни: из США, Канады, Великобритании, Германии и Австралии.

С полной версией отчета (на английском языке) можно ознакомиться здесь. В этой же статье я освещу основные результаты исследования и, где возможно, сравню их с результатами других соцопросов на данную тему: исследование другой международной аудиторской фирмы BCG (2019) год, а также опросы российских граждан, проведенных ВЦИОМ в 2020 году.

Статистическая основа

Национальный состав. В опросе приняло участие примерно равное количество граждан из каждой страны: 1 223 американцев, 1 229 канадцев, 1 202 немцев, 1 200 британцев и 1 200 австралийцев.

Половой состав. Доля респондентов-мужчин составила 49%, респондентов-женщин – 51%.

Возрастной состав:

6% респондентов – возраст от 18 до 23 лет («поколение Z»);

32% респондентов – возраст от 24 до 39 лет («миллениалы»);

28% респондентов – возраст от 40 до 55 лет («поколение X»)

30% респондентов – возраст от 56 до 74 лет («бэби-бумеры»)

4% респондентов – возраст от 75 до 89 лет («молчаливое поколение»)

Кроме этого, доля городских жителей среди респондентов составила 57%, сельских – 43%.

42% людей, принявших участие в исследовании, имеют высшее образование.

Общие результаты

1. Доверие является ключевым аспектом приемлемости ИИ населением. Выявлено 4 драйвера увеличения степени доверия к ИИ:

a. вера в адекватное правовое регулирование ИИ, обеспечивающее безопасность технологии (наиболее сильный драйвер);

b. предполагаемое положительное влияние ИИ на рабочие места и работу в целом;

c. доступность для понимания принципов работы ИИ;

d. предполагаемое положительное влияние ИИ на общество.

2. Люди не доверяют ИИ, но допускают его использование. Большинство опрошенных указало, что относятся терпимо к ИИ (42%) или нейтрально (28%). Меньшинство опрошенных одобряют использование ИИ (15%), поддерживают (6%). 9% опрошенных относятся к ИИ негативно.

ii1.png

При этом 28% опрошенных доверяют ИИ, 37% – не хотят доверять ИИ, 35% воздержалось от ответа. Если сравнить показатели ответов на аналогичный вопрос среди населения России, то россияне гораздо более определенно выражают свое мнение в отношении ИИ. Лишь 10% затруднились ответить на вопрос, остальные разделились на два примерно равных лагеря: 48% доверяющих ИИ и 42% относящихся к ИИ с недоверием. В России доверять ИИ склонно большее количество населения.

ii2.png

3. Доверие к институтам разработки, внедрения и регулирования ИИ различается в зависимости от страны. Во всех странах самая высокая степень доверия отдается университетам и научным институтам. 71%-77% опрошенных готово доверить им разработку и внедрение ИИ, 67%-73% – также регулирование ИИ-сферы. К коммерческим и правительственным организациям люди проявляют меньше доверия: 58%-62% доверяет им разработку и внедрение ИИ, 54%-58% – регулирование. Меньшая степень доверия возможно объясняется тем, что большинство опрошенных полагают, что частные компании и государство более заинтересованы в получении коммерческой выгоды от ИИ, чем общественной пользе данных технологий. Особенно сильна степень недоверия к государству в контексте использования ИИ в США и Великобритании.

Этот результат подтверждает и выводы, изложенные в исследовании BCG о том, что уровень доверия к правительству коррелирует с уровнем доверия к ИИ.

4. Люди ожидают регулирования ИИ посредством внешнего независимого надзора. Абсолютное большинство опрошенных полагают необходимым регулирование сферы ИИ (81%). 61–62% из них выступают за создание нового независимого регулятора. В Великобритании за независимый регулятор выступает больше людей, чем в остальных проанализированных странах. Респонденты из США в большей степени чем респонденты из других стран выступают против того, чтобы государство и существующие институты регулировали ИИ-сферу и предпочитают этому отсутствие регулирования вовсе.

5. Текущие правовые гарантии видятся недостаточными для обеспечения безопасности использования ИИ. Несмотря на уверенность в необходимости правового регулирования ИИ, большинство опрошенных не согласны или воздержались от оценки текущего правового регулирования как достаточного для обеспечения безопасности ИИ-технологий.

ii3.png

6. Твердое понимание принципов, которым должен соответствовать безопасный ИИ-продукт. Все опрошенные имеют ясное видение тех принципов, которым должно соответствовать внедрение ИИ в организации, если последние хотят, чтобы им доверяли. В качестве таких принципов выделяются:

a. быстродействие и точность;

b. конфиденциальность данных;

c. защищенность и управляемость;

d. прозрачность и понятность;

e. подотчетность;

f. оценка рисков и ожидаемого воздействия;

g. справедливость;

h. подконтрольность человеку.

7. Люди приемлют использование ИИ на работе, но не во всех областях. Так, 22% опрошенных считают, что внедрение ИИ создаст больше рабочих мест, чем уничтожит. Большая часть опрошенных (70%-76%) нашли комфортным использование ИИ на рабочих местах в целях автоматизации производственных процессов. Однако намного меньше людей находят безопасным использование ИИ для мониторинга или оценки сотрудников/соискателей.

8. Желание узнать больше об ИИ сочетается с низким уровнем понимания того, что такое ИИ и как он работает. Так, 62% опрошенных слышали об ИИ. При этом 60% признались, что мало понимают, что такое ИИ и как он используется в повседневных приложениях. Несмотря на это, 83% опрошенных выразили желание узнать больше об ИИ-технологиях.

В среднем 59,4% опрошенных из развитых стран обладают низким уровнем осведомленности об ИИ; 26,2% – средним уровнем; 14,4% – высоким уровнем. Среди россиян сходные показатели по данным ВЦИОМ составляют: 22% – низкий уровень, 39% – средний уровень; 39% – высокий уровень.

ii4.png

В результате исследования эксперты KPMG и Университета Квинсленда пришли к следующему общему выводу: доверие к ИИ можно повысить посредством:

  • реализации ожиданий общества в отношении разработки, внедрения и регулирования ИИ (обеспечить защищенность данных, контроль и надзор, повысить прозрачность рабочих инструментов и практик, использующих ИИ);
  • усиления правового регулирования ИИ;
  • поднятия уровня знаний населения об ИИ.
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр