Действительно ли системы идентификации лиц выполняют свои функции должным образом?
Система идентификации лиц уже довольно крепко вошла в нашу повседневную жизнь. Это используется в сканерах, подобных Face ID и даже находит применение в поиске преступников. Но, по словам издания Science Daily, коллектив ученых из Массачусетского технологического университета (MIT) и Стэнфорда, исследовав пару коммерческих ИИ-алгоритмов для опознавания лиц, нашла в них признаки сексизма и расизма.
Во время эксперимента стало ясно, что в течение анализов фотографий белокожих мужчин алгоритмы ошибочно распознали пол только в 0,8% случаев, а в ситуации темнокожих женщин процент неправильных результатов насчитывал около 30%. Для обнаружения закономерностей работница MIT Джой Буоламвини взяла 1200 фотографий разных людей (на которых, кстати, в большинстве были изображены женщины с темной кожей). После она обратилась к шкале Фитцпатрика, согласно которой имеется 6 фототипов кожи, среди которых I – наиболее светлый, а VI – наиболее темный.
В конечном итоге установилось, что для женщин с темной кожей с V, V или VI оценками по шкале Фицпатрика процент недочетов составил 20,8%, 34,5% и 34,7% соответственно. подобным образом прояснилось, что чем темнее фототип кожи – тем больше возможность того, что алгоритм ошибется. К тому же, Джой (сама являвшаяся афроамериканкой) сделала попытки проверить свои фото, и узнала, что алгоритмы либо не видят ее лицо, либо неправильно устанавливают пол. А ведь благодаря им в том же Китае уже можно привлечь людей к уголовной ответственности.
Стоит задуматься, а действительно ли системы идентификации лиц выполняют свои функции должным образом?