Microsoft aktualisiert seinen Responsible AI Standard und gab bekannt, dass es die Emotions- und Gesichtserkennungsfunktionen von Azure Face (größtenteils) einstellt.
Das Verantwortungsvoller KI-Standard (öffnet in neuem Tab) ist der interne Regelsatz von Microsoft, wenn es um den Aufbau von KI-Systemen geht. Das Unternehmen möchte, dass KI eine positive Kraft in der Welt ist und niemals von schlechten Akteuren missbraucht wird. Es handelt sich um einen Standard, der noch nie zuvor der Öffentlichkeit zugänglich gemacht wurde. Aufgrund dieser neuen Änderung entschied Microsoft jedoch, dass jetzt der richtige Zeitpunkt dafür sei.
Software zur Emotions- und Gesichtserkennung war, gelinde gesagt, umstritten. Mehrere Organisationen fordern ein Verbot dieser Technologie. Kämpfe für die Zukunft , beispielsweise, schrieb bereits im Mai einen offenen Brief, in dem er Zoom aufforderte, seine eigene Entwicklung emotionaler Tracking-Software zu stoppen, und nannte sie „invasiv“ und „eine Verletzung der Privatsphäre und der Menschenrechte“.
Richtlinienänderung
Wie geplant wird Microsoft seinen Azure Face-Dienst überarbeiten, um die Anforderungen seines neuen Responsible AI Standards zu erfüllen. Erstens entzieht das Unternehmen den öffentlichen Zugang zur Emotionsscanfunktion der KI. Zweitens ist Azure Face nicht mehr in der Lage, die Gesichtsmerkmale einer Person zu identifizieren, einschließlich „Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up“.
Der Grund für den Rückzug liegt darin, dass die globale Wissenschaftsgemeinschaft immer noch keinen klaren „Konsens über die Definition von ‚Emotionen‘“ hat. Natasha Cramption, Chief Responsible AI Officer bei Microsoft, sagte, dass Experten von innerhalb und außerhalb des Unternehmens ihre Bedenken geäußert hätten. Das Problem sind „die Herausforderungen bei der Verallgemeinerung von Schlussfolgerungen über Anwendungsfälle, Regionen und Bevölkerungsgruppen hinweg sowie die erhöhten Bedenken hinsichtlich der Privatsphäre …“
Neben Azure Face wird es auch bei Microsofts Custom Neural Voice ähnliche Einschränkungen geben. Benutzerdefinierte neuronale Stimme (öffnet in neuem Tab) ist eine Text-to-Speech-App, die erschreckend lebensecht ist. Jetzt wird der Service auf einige wenige „verwaltete Kunden und Partner“ beschränkt sein, also Personen, die direkt mit den Account-Teams von Microsoft zusammenarbeiten. Das Unternehmen gibt an, dass die Technologie zwar großes Potenzial hat, aber zur Identitätsfälschung genutzt werden kann. Um weiterhin Zugriff auf Neural Voice zu haben, müssen alle bestehenden Kunden ein Aufnahmeformular einreichen und sich von Microsoft genehmigen lassen. Sie müssen bis zum 30. Juni 2023 genehmigt werden. Wenn sie nicht ausgewählt werden, haben diese Kunden keinen Zugriff mehr auf Neural Voice.
Noch in Arbeit
Trotz allem, was gesagt wurde, gibt Microsoft seine Gesichtserkennungstechnologie nicht ganz auf. Die Ankündigung bezieht sich nur auf den öffentlichen Zugang. Sarah Bird, Hauptgruppenprojektmanagerin bei Azure AI, schrieb über verantwortungsvolle Gesichtserkennung (öffnet in neuem Tab) . Und in diesem Beitrag erklärt sie: „Microsoft ist sich bewusst, dass diese Funktionen wertvoll sein können, wenn sie für eine Reihe kontrollierter Barrierefreiheitsszenarien verwendet werden.“ Eines dieser Szenarien ist laut einem Vertreter AI sehen (öffnet in neuem Tab) Dabei handelt es sich um eine iOS-App, die Sehbehinderten dabei hilft, Personen und Objekte in ihrer Umgebung zu identifizieren.
Es ist gut zu sehen, dass ein weiterer Technologieriese die Probleme der Gesichtserkennung und das Missbrauchspotenzial erkennt. IBM hat bereits im Jahr 2020 etwas Ähnliches getan, allerdings mit einem absoluteren Ansatz.
Zurück in 2020, IBM kündigte an, die Arbeiten einzustellen auf Gesichtserkennung, weil das Unternehmen befürchtete, diese könnte zur Massenüberwachung missbraucht werden. Zu sehen, wie diese beiden Giganten der Branche diese Technologie abschaffen, ist ein Gewinn für Kritiker der Anti-Gesichtserkennung. Wenn Sie mehr über KI erfahren möchten, hat TechRadar kürzlich einen Artikel darüber veröffentlicht, was sie für die Cybersicherheit tun kann.