Microsoft nie chce już, aby sztuczna inteligencja rozpoznawała Twoje emocje, zwłaszcza

Microsoft nie chce już, aby sztuczna inteligencja rozpoznawała Twoje emocje, zwłaszcza

Microsoft aktualizuje swój odpowiedzialny standard sztucznej inteligencji i ujawnił, że usuwa funkcje rozpoznawania twarzy i emocji z usługi Azure Face (w większości).

Responsible AI Standard (otwiera się w nowej zakładce) to wewnętrzny zestaw reguł Microsoftu do budowania systemów AI. Firma chce, aby sztuczna inteligencja była pozytywną siłą na świecie i nigdy nie była nadużywana przez złych aktorów. To standard, który nigdy wcześniej nie był udostępniany opinii publicznej. Jednak dzięki tej nowej zmianie Microsoft zdecydował, że nadszedł czas.

Oprogramowanie do rozpoznawania twarzy i emocji budzi, delikatnie mówiąc, kontrowersje. Wiele organizacji wzywa do zakazania tej technologii. Na przykład Fight for the Future, a écrit une lettre ouverte en mai requireant à Zoom d'arrêter son propre développement de logiciel de suivi émotionnel et l'a qualifié d '"invasif" et de "violation de la vie privée et des droits człowieka.”

Zmiana zasad

Zgodnie z oczekiwaniami Microsoft zmodyfikuje usługę Azure Face tak, aby spełniała wymagania nowego standardu Odpowiedzialnej AI. Po pierwsze, firma usuwa publiczny dostęp do możliwości sztucznej inteligencji w zakresie analizy emocji. Po drugie, Azure Face nie będzie już w stanie zidentyfikować cech twarzy danej osoby, w tym „płci, wieku, uśmiechu, zarostu, fryzury i makijażu”.

Powodem wycofania jest to, że światowa społeczność naukowa nadal nie osiągnęła „jasnego konsensusu w sprawie definicji„ emocji ”. Natasha Cramption, dyrektor ds. sztucznej inteligencji w Microsoft, powiedziała, że ​​eksperci wewnątrz i na zewnątrz firmy wyrazili zaniepokojenie. Problem polega na „wyzwaniach związanych z uogólnianiem wniosków na różne przypadki użycia, regiony i dane demograficzne oraz zwiększonej trosce o prywatność…”

Oprócz Azure Face, niestandardowy głos neuronowy firmy Microsoft będzie podlegał podobnym ograniczeniom. Custom Neural Voice (otwiera się w nowej karcie) to niezwykle realistyczna aplikacja do zamiany tekstu na mowę. Teraz usługa będzie ograniczona do kilku „zarządzanych klientów i partnerów”, czyli osób współpracujących bezpośrednio z zespołami ds. kont Microsoft. Firma twierdzi, że choć technologia ma ogromny potencjał, można ją wykorzystać do kradzieży tożsamości. Aby nadal mieć dostęp do Neural Voice, wszyscy obecni klienci muszą przesłać formularz rejestracyjny i uzyskać zgodę firmy Microsoft. Muszą zostać zatwierdzone do 30 czerwca 2023 r., a jeśli nie zostaną wybrane, ci klienci nie będą już mieli dostępu do Neural Voice.

wciąż w pracy

Mimo wszystko Microsoft nie rezygnuje całkowicie ze swojej technologii rozpoznawania twarzy. Ogłoszenie jest przeznaczone wyłącznie do publicznego dostępu. Sarah Bird, Senior Group Project Manager w Azure AI, napisała o Odpowiedzialnym rozpoznawaniu twarzy (otwiera się w nowej karcie). W artykule tym stwierdza się, że „Microsoft zdaje sobie sprawę, że te funkcje mogą być przydatne w przypadku różnych scenariuszy kontrolowanej dostępności”. Według przedstawiciela jednym z takich scenariuszy jest Seeing AI (otwiera się w nowej karcie), aplikacja na iOS, która pomaga osobom niedowidzącym identyfikować osoby i przedmioty wokół nich.

Dobrze, że inny gigant technologiczny dostrzega problemy z rozpoznawaniem twarzy i potencjalne nadużycia. IBM zrobił coś podobnego w 2020 roku, choć jego podejście jest bardziej bezwzględne.

W 2020 roku IBM ogłosił, że rezygnuje z prac nad rozpoznawaniem twarzy, ponieważ obawia się, że będzie on nadużywany do masowej inwigilacji. Widok tych dwóch tytanów branży pozbycia się tej technologii to zwycięstwo krytyków rozpoznawania twarzy. Jeśli chcesz dowiedzieć się więcej o sztucznej inteligencji, TechRadar opublikował niedawno artykuł na temat tego, co może zrobić dla cyberbezpieczeństwa.