Microsoft обновляет свой стандарт ответственного искусственного интеллекта и сообщает, что отказывается от возможностей Azure Face по распознаванию эмоций и лиц (по большей части).
Ассоциация Стандарт ответственного ИИ (открывается в новой вкладке) — это внутренний набор правил Microsoft, когда речь идет о создании систем искусственного интеллекта. Компания хочет, чтобы ИИ был позитивной силой в мире и никогда не использовался злоумышленниками. Это стандарт, который никогда раньше не публиковался. Однако с этим новым изменением Microsoft решила, что сейчас самое время.
Программное обеспечение для распознавания эмоций и лиц было, мягко говоря, спорным. Есть несколько организаций, призывающих запретить эту технологию. Борьба за будущее Например, еще в мае написал открытое письмо, в котором просил Zoom прекратить собственную разработку программного обеспечения для отслеживания эмоций и назвал его «инвазивным» и «нарушением конфиденциальности и прав человека».
Изменение политики
Как сообщается, Microsoft переработает свою службу Azure Face, чтобы она соответствовала требованиям своего нового стандарта ответственного ИИ. Во-первых, компания закрывает публичный доступ к возможностям сканирования эмоций ИИ. Во-вторых, Azure Face больше не сможет определять характеристики лица человека, включая «пол, возраст, улыбку, растительность на лице, прическу и макияж».
Причина выхода на пенсию заключается в том, что у мирового научного сообщества до сих пор нет четкого «консенсуса по определению «эмоций»». Наташа Крэмпшн, главный ответственный за искусственный интеллект в Microsoft, сказала, что эксперты как внутри компании, так и за ее пределами выразили свою озабоченность. Проблема заключается в «проблемах обобщения выводов по вариантам использования, регионам и демографии, а также в повышенных опасениях по поводу конфиденциальности…»
В дополнение к Azure Face аналогичные ограничения коснутся Microsoft Custom Neural Voice. Пользовательский нейронный голос (открывается в новой вкладке) — это удивительно реалистичное приложение для преобразования текста в речь. Теперь сервис будет доступен только нескольким избранным «управляемым клиентам и партнерам», то есть людям, которые работают непосредственно с группами по работе с клиентами Microsoft. Компания заявляет, что, хотя технология имеет большой потенциал, ее можно использовать для выдачи себя за другое лицо. Чтобы сохранить доступ к Neural Voice, все существующие клиенты должны отправить форму приема и получить одобрение Microsoft. Они должны быть одобрены до 30 июня 2023 года, и если они не будут выбраны, эти клиенты больше не будут иметь доступа к Neural Voice.
Все еще в работе
Несмотря на все сказанное, Microsoft не отказывается полностью от своей технологии распознавания лиц. Объявление относится только к публичному доступу. Сара Берд, главный руководитель проекта группы в Azure AI, написал об ответственном распознавании лиц (открывается в новой вкладке) . И в этом посте она заявляет: «Microsoft признает, что эти возможности могут быть ценными при использовании для набора сценариев контролируемой доступности». Одним из таких сценариев, по словам представителя, является Видя ИИ (открывается в новой вкладке) это приложение для iOS, которое помогает слабовидящим идентифицировать людей и предметы вокруг них.
Приятно видеть, что еще один технологический гигант признает проблемы с распознаванием лиц и возможность злоупотреблений. IBM сделала нечто подобное еще в 2020 году, хотя ее подход был более абсолютным.
Еще в 2020, IBM объявила о прекращении работы на распознавании лиц, потому что компания боялась, что это может быть использовано для массовой слежки. Видеть, как эти два титана индустрии избавляются от этой технологии, — победа критиков против распознавания лиц. Если вам интересно узнать больше об ИИ, TechRadar недавно опубликовал статью о том, что он может сделать для кибербезопасности.