Новостная лента

Исследования показали, что технология распознавания лиц не работает

Исследование правительства США показывает, что алгоритмы распознавания лиц гораздо менее точны при определении афро-американских и азиатских лиц по сравнению с европейскими и кавказскими.

Исследования указывали на то, что афроамериканские женщины были часто ошибочно идентифицированы. Это вызывает новые сомнения относительно того, должны ли такие технологии использоваться правоохранительными органами.

Критики называют результаты «шокирующими». Национальный институт стандартов и технологий (Nist) протестировал 189 алгоритмов от 99 разработчиков, включая Intel, Microsoft, Toshiba и китайские фирмы Tencent и DiDi Chuxing.

Amazon, которая продает свой продукт для распознавания лиц Rekognition полицейским силам США, не представила его на рассмотрение. Ранее розничный гигант назвал исследование из Массачусетского технологического института «вводящим в заблуждение». В этом отчете предполагалось, что Rekognition плохо работает, когда дело доходит до распознавания женщин с темной кожей.

Согласно отчету, при сопоставлении конкретной фотографии с другим изображением того же лица, которое называется сопоставлением «один к одному», многие из проверенных алгоритмов неверно идентифицировали афро-американские и азиатские лица в 10–100 раз ошибочней, чем кавказские.

А женщины афроамериканского происхождения с большей вероятностью могут быть неверно идентифицированы в так называемом сопоставлении «один ко многим», которое сравнивает определенную фотографию со многими другими в базе данных.

Конгрессмен Бенни Томпсон, председатель комитета Палаты представителей по национальной безопасности США, заявил агентству Рейтер: «Администрация должна пересмотреть свои планы по технологии распознавания лиц в свете этих шокирующих результатов».

Ученый-компьютерщик и основатель Лиги алгоритмического правосудия Джой Буоламвини назвал этот доклад «всеобъемлющим опровержением» для тех, кто заявляет о предвзятости в программном обеспечении искусственного интеллекта, не было проблемой.

Алгоритмы в исследовании Nist были протестированы на двух типах ошибок:
    ложные срабатывания, когда программное обеспечение ошибочно считает, что фотографии двух разных людей показывают одно и то же лицо


    ложные негативы, когда программное обеспечение не соответствует двум фотографиям, на которых изображен один и тот же человек


    Программное обеспечение использовало фотографии из баз данных, предоставленных Государственным департаментом, Министерством внутренней безопасности и ФБР, без изображений из социальных сетей или видеонаблюдения.

    «Несмотря на то, что заявления по различным алгоритмам обычно некорректны, мы нашли эмпирические доказательства существования демографических различий в большинстве алгоритмов распознавания лиц, которые мы изучали», — говорит Патрик Гротер, специалист по компьютерам Nist и основной автор отчета.

    «Хотя мы не исследуем причины этих различий, эти данные будут полезны для разработчиков политики, разработчиков и конечных пользователей, которые думают об ограничениях и правильном использовании этих алгоритмов».

    Одна из китайских фирм, SenseTime, чьи алгоритмы были признаны неточными, говорит, что это было результатом «ошибок», которые теперь были устранены.

    «Результаты не отражают наши продукты, так как перед выходом на рынок они проходят тщательное тестирование. Именно поэтому все наши коммерческие решения демонстрируют высокую степень точности», — сказал представитель BBC.

    В нескольких городах США, включая Сан-Франциско и Окленд в Калифорнии и Сомервилл, штат Массачусетс, запрещено использование технологии распознавания лиц.