Цифровая этика и робоэтика как ключевые темы XXI века

Над созданием и изучением принципов «истинного ИИ» трудятся тысячи учёных и программистов. Но что мы будем делать, когда его наконец создадут? Как с ним коммуницировать и использовать?

Проблемы этики и робоэтики существовали задолго до того, как человечество научилось проводить машинное обучение и строить нейросети. Ещё Азимов вывел в своих произведениях три закона роботехники, но современное представление о взаимодействии с ИИ остаётся примерно на том же уровне.

В этом посте, которым мы делимся к старту курса о машинном и глубоком обучении, рассмотрим несколько важных проблем цифровой этики и робоэтики, с которыми человечество обязательно столкнётся, когда ИИ станет достаточно умным, чтобы принимать собственные решения.

Законы робототехники идеальны?

Для тех, кто вдруг не помнит постулаты Азимова, привожу их отдельно:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму закону.

Многие специалисты по разработке ИИ считают их идеальными принципами, по которым должны работать роботы. Главное их преимущество — в простоте. Ведь, чем сложнее алгоритмы действий, тем проще их сломать.

Давайте рассмотрим их сразу на примере беспилотных автомобилей. Эта отрасль ИИ сегодня развивается весьма стремительно. Эксперты утверждают, что к 2030 году беспилотные авто выйдут на массовый рынок и станут доступны для покупки.

Законы роботехники никак не помогают ИИ решать дилеммы — ситуации, где все варианты выборов негативные. И это одно из самых тонких мест робоэтики, потому что спрогнозировать, как поведёт себя робот с истинным искусственным интеллектом, практически невозможно.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

https://habr.com/…blog/563714/