Microsoft nie chce już, aby sztuczna inteligencja rozpoznawała Twoje emocje

Microsoft aktualizuje swój odpowiedzialny standard sztucznej inteligencji i ujawnił, że usuwa funkcje rozpoznawania twarzy i emocji z usługi Azure Face (w większości).

Responsible AI Standard (otwiera się w nowej zakładce) to wewnętrzny zestaw reguł Microsoftu do budowania systemów AI. Firma chce, aby sztuczna inteligencja była pozytywną siłą na świecie i nigdy nie była nadużywana przez złych aktorów. To standard, który nigdy wcześniej nie był udostępniany opinii publicznej. Jednak dzięki tej nowej zmianie Microsoft zdecydował, że nadszedł czas.

Oprogramowanie do rozpoznawania twarzy i emocji było co najmniej kontrowersyjne. Wiele organizacji apeluje o zakazanie tej technologii. Walcz o przyszłość, na przykład, aby napisać list na żądanie, do Zoom d'arrêter are propre d'veloppement de logiciel de suivi émotionnel et l'a qualifié d'”invasif” et de „violation de la vie privée et des droits człowieka."

Zmiana zasad

Nic dziwnego, że Microsoft zmodyfikuje swoją usługę Azure Face, aby spełniała wymagania nowego standardu Responsible AI. Po pierwsze, firma usuwa publiczny dostęp do możliwości analizy emocji przez sztuczną inteligencję. Po drugie, Azure Face nie będzie już w stanie zidentyfikować cech twarzy danej osoby, w tym „płeć, wiek, uśmiech, zarost, fryzurę i makijaż.

Powodem wycofania jest fakt, że światowa społeczność naukowa nie osiągnęła jeszcze „jasnego konsensusu w sprawie definicji „emocji”. Natasha Cramption, dyrektor odpowiedzialna za sztuczną inteligencję w Microsoft, powiedziała, że ​​eksperci z firmy i spoza niej zgłosili obawy. Problem tkwi w „wyzwaniach, w jaki sposób wnioskowania uogólniają się w różnych przypadkach użycia, regionach i danych demograficznych, a także w zwiększonych obawach dotyczących prywatności…”

Oprócz Azure Face, niestandardowy głos neuronowy Microsoftu będzie miał podobne ograniczenia. Niestandardowy głos neuronowy (otwiera się w nowej karcie) to niesamowicie realistyczna aplikacja do zamiany tekstu na mowę. Teraz usługa będzie ograniczona do kilku „zarządzanych klientów i partnerów”, czyli osób pracujących bezpośrednio z zespołami kont Microsoft. Firma twierdzi, że chociaż technologia ma ogromny potencjał, może zostać wykorzystana do kradzieży tożsamości. Aby nadal mieć dostęp do usługi Neural Voice, wszyscy obecni klienci muszą przesłać formularz rejestracyjny i zostać zatwierdzony przez firmę Microsoft. Muszą zostać zatwierdzone do 30 czerwca 2023 r., a jeśli nie zostaną wybrane, ci klienci nie będą już mieli dostępu do Neural Voice.

wciąż w pracy

Mimo wszystko, co zostało powiedziane, Microsoft nie rezygnuje całkowicie ze swojej technologii rozpoznawania twarzy. Reklama jest przeznaczona wyłącznie do publicznego dostępu. Sarah Bird, Senior Group Project Manager w Azure AI, pisała o odpowiedzialnym rozpoznawaniu twarzy (otwiera się w nowej karcie). W tym artykule stwierdza się, że „Microsoft uznaje, że te funkcje mogą być przydatne, gdy są używane w różnych kontrolowanych scenariuszach ułatwień dostępu”. Według przedstawiciela, jednym z takich scenariuszy jest Seeing AI (otwiera się w nowej karcie), aplikacja na iOS, która pomaga osobom niedowidzącym identyfikować osoby i przedmioty wokół nich.

Dobrze, że inny gigant technologiczny dostrzega problemy z rozpoznawaniem twarzy i potencjalne nadużycia. IBM zrobił coś podobnego w 2020 roku, choć jego podejście jest bardziej bezwzględne.

W 2020 roku IBM ogłosił, że rezygnuje z prac nad rozpoznawaniem twarzy, ponieważ obawia się, że będzie on nadużywany do masowej inwigilacji. Widok tych dwóch tytanów branży pozbycia się tej technologii to zwycięstwo krytyków rozpoznawania twarzy. Jeśli chcesz dowiedzieć się więcej o sztucznej inteligencji, TechRadar opublikował niedawno artykuł na temat tego, co może zrobić dla cyberbezpieczeństwa.

Udostępnij to