Силуэты пользователей ноутбуков и мобильных устройств рядом с проекцией логотипа Microsoft 28 марта 2018 г. Фото: Dado Ruvic/Illustration/Reuters | Epoch Times Россия
Силуэты пользователей ноутбуков и мобильных устройств рядом с проекцией логотипа Microsoft 28 марта 2018 г. Фото: Dado Ruvic/Illustration/Reuters

Microsoft отказывается от технологии считывания эмоций и ограничивает доступ к системам распознавания лиц

Команда Microsoft разработала «Стандарт ответственного искусственного интеллекта»
The Epoch Times24.06.2022 Обновлено: 24.06.2022 05:28
Компания Microsoft объявила 21 июня о прекращении продаж технологии, определяющей эмоциональное состояние человека и его пол, на фоне опасений по поводу конфиденциальности и отсутствия консенсуса по определению понятия «эмоции».

Сара Берд, главный менеджер по продуктам группы Microsoft в подразделении Azure AI, объявила об этом решении в своём блоге, отметив, что это стало частью усилий Microsoft по обеспечению более ответственного использования технологий искусственного интеллекта.

Решение было принято после обширного анализа, в результате которого команда Microsoft разработала «Стандарт ответственного ИИ» и компания руководствуется им при разработке и внедрении продуктов ИИ (искусственного интеллекта).

Технологический гигант также ограничит «неограниченный» доступ к технологии распознавания лиц.

«Мы откажемся от возможностей анализа лица, которые якобы позволяют делать выводы об эмоциональном состоянии и атрибутах личности, таких как пол, возраст, улыбка, волосы на лице, причёска и макияж», — написала Берд.

«Мы сотрудничали с внутренними и внешними исследователями, чтобы понять ограничения и потенциальные преимущества этой технологии и найти компромиссы. В случае классификации эмоций возникли важные вопросы о конфиденциальности, отсутствии консенсуса по определению эмоций и невозможности обобщить связь между выражением лица и эмоциональным состоянием в разных случаях использования, регионах и демографических группах», — продолжила Берд.

Она также отметила, что доступ через интерфейс прикладного программирования к «возможностям, которые предсказывают чувствительные атрибуты, также открывает широкий спектр способов их неправильного использования, включая создание стереотипов, дискриминацию или несправедливый отказ в предоставлении услуг».

Такие инструменты искусственного интеллекта больше не будут доступны новым клиентам с 21 июня 2022 года. У существующих клиентов будет один год, прежде чем они лишатся доступа.

«Несмотря на то, что API-доступ к этим атрибутам больше не будет доступен клиентам для общего использования, Microsoft признаёт, что эти возможности могут быть ценными при использовании для ряда контролируемых сценариев доступности», — отметила Берд.

По её словам, Microsoft «по-прежнему привержена поддержке технологий для людей с ограниченными возможностями» и будет продолжать использовать эти возможности путём интеграции в другие приложения, такие как Seeing AI — бесплатное приложение для слепых или слабовидящих людей, которое рассказывает о мире.

Microsoft также ограничит доступ к своим технологиям распознавания лиц, а новые клиенты, использующие эти технологии, должны получить предварительное разрешение.

У существующих клиентов Azure Face API, Computer Vision и Video Indexer есть один год, чтобы подать заявку и получить разрешение на дальнейший доступ на основе предоставленных ими сценариев использования.

С 30 июня 2023 года существующие клиенты больше не будут иметь доступа к этим системам распознавания лиц, если их приложения не будут одобрены Microsoft.

В то же время компания попросила клиентов избегать ситуаций, нарушающих неприкосновенность частной жизни или позволяющих узнать интимную личную информацию, например, сексуальную ориентацию человека.

«Возможности распознавания лиц (включая определение размытости, экспозиции, очков, положения головы, ориентиров, шума, окклюзии и границ лица) останутся общедоступными и не требуют приложения», — заявил технологический гигант.

Решение Microsoft последовало вскоре после того, как инженер Google был отправлен в оплачиваемый административный отпуск, когда выразил обеспокоенность по поводу «человекоподобного» поведения одной из языковых моделей искусственного интеллекта, которую он назвал «коллегой» и «ребёнком».

Комментарии
Дорогие читатели,

мы приветствуем любые комментарии, кроме нецензурных.
Раздел модерируется вручную, неподобающие сообщения не будут опубликованы.

С наилучшими пожеланиями, редакция The Epoch Times

Упражения Фалунь Дафа
ВЫБОР РЕДАКТОРА