Microsoft está actualizando su estándar de inteligencia artificial responsable y reveló que está retirando las capacidades de reconocimiento facial y emocional de Azure Face (en su mayor parte).
La Estándar de IA responsable (se abre en una pestaña nueva) es el conjunto de reglas internas de Microsoft cuando se trata de construir sistemas de IA. La compañía quiere que la IA sea una fuerza positiva en el mundo y que nunca sea mal utilizada por malos actores. Es un estándar que nunca antes se había compartido con el público. Sin embargo, con este nuevo cambio, Microsoft decidió que ahora sería el momento.
El software de reconocimiento facial y emocional ha sido controvertido, por decir lo menos. Hay varias organizaciones que piden que se prohíba esta tecnología. Lucha por el futuro , por ejemplo, escribió una carta abierta en mayo pidiendo a Zoom que detuviera su propio desarrollo de software de seguimiento emocional y lo calificó de "invasivo" y "una violación de la privacidad y los derechos humanos".
Cambio de política
Tal como está establecido, Microsoft modificará su servicio Azure Face para cumplir con los requisitos de su nuevo estándar de inteligencia artificial responsable. Primero, la compañía está eliminando el acceso público a la capacidad de escaneo de emociones de la IA. En segundo lugar, Azure Face ya no podrá identificar las características faciales de una persona, incluidos "género, edad, [una] sonrisa, vello facial, cabello y maquillaje".
El motivo del retiro es que la comunidad científica mundial todavía no tiene un "consenso claro sobre la definición de 'emociones'". Natasha Cramption, directora responsable de inteligencia artificial de Microsoft, dijo que los expertos de dentro y fuera de la empresa han expresado sus preocupaciones. El problema son "los desafíos en cómo las inferencias se generalizan a través de casos de uso, regiones y datos demográficos, y las mayores preocupaciones sobre la privacidad..."
Además de Azure Face, Custom Neural Voice de Microsoft verá restricciones similares. Voz neuronal personalizada (se abre en una pestaña nueva) es una aplicación de texto a voz que es sorprendentemente realista. Ahora el servicio se limitará a unos pocos "clientes y socios administrados", que son personas que trabajan directamente con los equipos de cuentas de Microsoft. La compañía afirma que si bien la tecnología tiene un gran potencial, puede usarse para suplantar la identidad. Para seguir teniendo acceso a Neural Voice, todos los clientes existentes deben enviar un formulario de admisión y obtener la aprobación de Microsoft. Deben estar aprobados antes del 30 de junio de 2023 y, si no son seleccionados, estos clientes ya no tendrán acceso a Neural Voice.
Todavía en las obras
A pesar de todo lo que se ha dicho, Microsoft no abandona por completo su tecnología de reconocimiento facial. El anuncio solo se refiere al acceso público. Sarah Bird, directora principal de proyectos de grupo en Azure AI, escribió sobre el reconocimiento facial responsable (se abre en una pestaña nueva) . Y en esa publicación, afirma que "Microsoft reconoce que estas capacidades pueden ser valiosas cuando se usan para un conjunto de escenarios de accesibilidad controlada". Uno de estos escenarios, según un representante, es Al ver a AI (se abre en una pestaña nueva) que es una aplicación de iOS que ayuda a las personas con discapacidad visual a identificar personas y objetos a su alrededor.
Es bueno ver a otro gigante tecnológico reconociendo los problemas con el reconocimiento facial y el potencial de abuso. IBM hizo algo similar allá por 2020, aunque su enfoque fue más absoluto.
De vuelta en 2020, IBM anunció que estaba abandonando el trabajo en el reconocimiento facial porque la empresa temía que pudiera ser utilizado indebidamente para la vigilancia masiva. Ver a estos dos titanes de la industria deshacerse de esta tecnología es una victoria para los críticos del reconocimiento antifacial. Si está interesado en obtener más información sobre la IA, TechRadar publicó recientemente un artículo sobre lo que puede hacer por la ciberseguridad.