Microsoft aktualizuje swój standard odpowiedzialnej sztucznej inteligencji i ujawnił, że wycofuje zdolności rozpoznawania emocji i twarzy Azure Face (w większości).
Połączenia Odpowiedzialny standard sztucznej inteligencji (otwiera się w nowej karcie) to wewnętrzny zestaw reguł firmy Microsoft, jeśli chodzi o budowanie systemów AI. Firma chce, aby sztuczna inteligencja była pozytywną siłą na świecie i nigdy nie była niewłaściwie wykorzystywana przez złych aktorów. To standard, który nigdy wcześniej nie był udostępniany opinii publicznej. Jednak dzięki tej nowej zmianie Microsoft zdecydował, że nadszedł czas.
Oprogramowanie do rozpoznawania emocji i twarzy budzi co najmniej kontrowersje. Istnieje wiele organizacji wzywających do zakazania tej technologii. Walcz o przyszłość Na przykład, napisał list otwarty w maju, prosząc Zoom o zaprzestanie własnego rozwoju oprogramowania do śledzenia emocji i nazwał to „inwazyjnym” oraz „naruszeniem prywatności i praw człowieka”.
Zmiana polityki
Zgodnie z planem Microsoft przerobi swoją usługę Azure Face, aby spełnić wymagania nowego standardu odpowiedzialnej sztucznej inteligencji. Po pierwsze, firma usuwa publiczny dostęp do funkcji skanowania emocji przez sztuczną inteligencję. Po drugie, Azure Face nie będzie już w stanie zidentyfikować cech twarzy osoby, w tym „płci, wieku, [a] uśmiechu, zarostu, włosów i makijażu”.
Powodem wycofania się jest to, że globalna społeczność naukowa nadal nie ma jasnego „konsensusu co do definicji„ emocji ”. Natasha Cramption, dyrektor odpowiedzialny za sztuczną inteligencję w firmie Microsoft, powiedziała, że eksperci z firmy i spoza niej wyrazili swoje obawy. Problem polega na „wyzwaniach związanych z uogólnianiem wniosków w różnych przypadkach użycia, regionach i danych demograficznych oraz zwiększonymi obawami dotyczącymi prywatności…”
Oprócz Azure Face, podobne ograniczenia będzie dotyczyć niestandardowego głosu neuronowego firmy Microsoft. Niestandardowy głos neuronowy (otwiera się w nowej karcie) to szokująco realistyczna aplikacja do zamiany tekstu na mowę. Teraz usługa będzie ograniczona do kilku wybranych „zarządzanych klientów i partnerów”, czyli osób pracujących bezpośrednio z zespołami kont Microsoftu. Firma twierdzi, że chociaż technologia ma ogromny potencjał, może służyć do podszywania się. Aby zachować dostęp do usługi Neural Voice, wszyscy dotychczasowi klienci muszą przesłać formularz zgłoszeniowy i uzyskać zatwierdzenie przez firmę Microsoft. Muszą zostać zatwierdzeni do 30 czerwca 2023 r., a jeśli nie zostaną wybrani, ci klienci utracą dostęp do Neural Voice.
Wciąż w trakcie prac
Pomimo wszystkiego, co zostało powiedziane, Microsoft nie rezygnuje całkowicie z technologii rozpoznawania twarzy. Ogłoszenie dotyczy wyłącznie publicznego dostępu. Sarah Bird, która jest głównym kierownikiem projektu grupy w Azure AI, pisał o odpowiedzialnym rozpoznawaniu twarzy (otwiera się w nowej karcie) . W tym poście stwierdza: „Microsoft zdaje sobie sprawę, że te możliwości mogą być cenne, gdy są używane w zestawie kontrolowanych scenariuszy ułatwień dostępu”. Jeden z tych scenariuszy, według przedstawiciela, jest Widząc sztuczną inteligencję (otwiera się w nowej karcie) która jest aplikacją na iOS, która pomaga osobom niedowidzącym w identyfikowaniu osób i przedmiotów wokół nich.
Dobrze widzieć, jak kolejny gigant technologiczny dostrzega problemy z rozpoznawaniem twarzy i potencjał nadużyć. IBM zrobił coś podobnego w 2020 roku, chociaż jego podejście było bardziej absolutne.
Powrót w 2020, IBM ogłosił, że rezygnuje z pracy na rozpoznawanie twarzy, ponieważ firma obawiała się, że może zostać wykorzystana do masowej inwigilacji. Obserwowanie, jak ci dwaj tytani branży pozbywają się tej technologii, jest wygraną dla krytyków zajmujących się rozpoznawaniem twarzy. Jeśli chcesz dowiedzieć się więcej o sztucznej inteligencji, TechRadar opublikował niedawno artykuł o tym, co może zrobić dla cyberbezpieczeństwa.