Инструмент Accenture позволит обнаружить предвзятость в алгоритмах ИИ

Компания Accenture, предоставляющая профессиональные сервисы, вскоре выпустит новый инструмент, с помощью которого клиенты смогут выявлять необоснованную предвзятость в алгоритмах искусственного интеллекта (ИИ). Обнаружив такую предвзятость, например, расовую или гендерную, её можно будет попытаться устранить, заявляют представители компании.

До сих пор, весьма трудоёмкий поиск заложенных в интеллектуальные алгоритмы предвзятостей был под силу лишь располагающим большими ресурсами крупным корпорациям. Новый инструмент Accenture призван сделать такой анализ доступным для бизнеса любых масштабов.

Прототип этого инструмента, неофициально называемого Fairness Tool, в настоящее время проходит полевые испытания с неназванным партнёром Accenture на приложениях для анализа кредитных рисков. Компания сообщила, что дебют продукта запланирован на ближайшее будущее. Инструмент будет представлен как часть более широкой программы под названием AI Launchpad, в которую также будет входить обучение сотрудников этике и учёту.

Для того, чтобы выяснить, какие виды данных, используемые в приложении ИИ, могут представлять предвзятость, Fairness Tool использует статистические методы, сравнения предопределенных справедливых и несправедливых переменных. Он также будет искать другие переменные, которые могут содержать скрытые предубеждения. Например, в информации о зарплате может быть заложена предвзятость по отношению к женщинам или меньшинствам, даже если явно не указаны пол или раса. Инструмент также может применяться для внесения изменений в алгоритм клиента, чтобы сделать его менее предвзятым. Но представители Accenture отмечают, что такие модификации в ряде случаев могут снижать общую точность работы интеллектуальных приложений.

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

ko.com.ua