Zwalczaj niepowodzenia dzięki technologii biometrycznej głosu.

Zwalczaj niepowodzenia dzięki technologii biometrycznej głosu.

Z każdym postępem technologicznym wydaje się następować odpowiedni postęp w wykorzystywaniu tej technologii do szkodliwych celów. Jest to szczególnie prawdziwe w branży usług finansowych, gdzie metody stosowane do interakcji z naszymi bankami stworzyły nową rasę „rabujących banki”. Gdy transakcje polegały wyłącznie na udaniu się do oddziału banku, zagrożenie stratą finansową polegało przede wszystkim na napaści zbrojnej. złodziej. Jednak pojawienie się Internetu oznaczało wprowadzenie bankowości internetowej, decydującej przewagi technologicznej dla banków i klientów. Wprowadził także nową generację rabusiów bankowych w postaci programistów i hakerów. Nowe techniki lotu nie były oparte na broni palnej, ale na technikach socjotechnicznych, takich jak phishing, a także znacznie bardziej zaawansowanych technikach, takich jak złośliwe oprogramowanie Man-in-the-Evil. -Middle i Man-in-the-Browser. Stając się komputerami rozprowadzającymi pieniądze, stały się celem ataków złośliwego oprogramowania. Aplikacje na smartfony również nie były odporne na złośliwe oprogramowanie atakujące ich systemy operacyjne. Nasze wysiłki w celu przeciwdziałania tym atakom często opierają się również na technologiach, takich jak uwierzytelnianie dwuskładnikowe za pomocą kodów autoryzacyjnych opartych na SMS-ach. Nic więc dziwnego, że techniki te zostały również zaatakowane przez techniki, takie jak ataki z zamianą kart SIM, a nawet włamanie do globalnej sieci telekomunikacyjnej SS7.Deepfakes. Istnieje nowa technologia znana jako Deepfake, która, chociaż ma bardzo odległe pochodzenie, wierzymy, że będzie mogła zostać wykorzystana jako potężny nowy wektor oszustwa. Depefake to wykorzystanie uczenia maszynowego do tworzenia audiowizualnych imitacji prawdziwych ludzi. Wykorzystuje technikę znaną jako Generative Adversarial Network (GAN), która może generować nowe dane z istniejących zestawów danych. Obejmuje to obrazy i dźwięk. Na przykład istniejące pliki audio/wideo osoby mówiącej można wykorzystać do wygenerowania nowego syntetycznego dźwięku/wideo, w zależności od tego, czego algorytm nauczył się z rzeczywistego wideo/dźwięku. Chociaż początkowo był używany do transponowania celebrytów do filmów pornograficznych, szkodliwe możliwości Deepfake obejmują zarówno fałszowanie fałszywych informacji, jak i telewizję, co oznacza, że ​​teraz możemy zobaczyć, jak cel przemawia do nas osobiście. Fałszywe wiadomości, fałszowanie wyborów, wojna dezinformacyjna i zupełnie nowy sposób. Upadek mediów drukowanych na rzecz cyfrowego odbioru naszych wiadomości jest nie tylko praktyczny, ale także wprowadził znacznie bogatsze treści. audio i wideo Istnieje praktycznie nieograniczona liczba witryn, które możemy odwiedzać w poszukiwaniu wiadomości i treści. Jeśli zobaczymy klip wideo przedstawiający osobę, nieznaną lub nieznaną, przekazującą wiadomość, nie mamy powodu podejrzewać, że jest to fałszywy film. Zapewnia to gotowe forum dla tych, którzy chcą rozpowszechniać fałszywe wiadomości za pośrednictwem Deepfakes.Mage: Shutterstock (zdj.: © Shutterstock) Potencjalny wpływ na usługi finansowe Dlaczego Deepfake może wpływać również na usługi finansowe? Informacje są coraz częściej rozpowszechniane w formie cyfrowej, podobnie jak usługi bankowe. Strategie komunikacji zunifikowanej i wielokanałowej polegają na tym, że banki komunikują się ze swoimi klientami za pomocą np. systemu audio/wideo opartego na przeglądarce. Może to dotyczyć agenta ludzkiego, ale w przyszłości także agentów opartych na sztucznej inteligencji (AI). Nietrudno zatem wyobrazić sobie rozmowę wideo/audio między zamożnym klientem a jego prywatnym bankierem. Jeśli klient wygląda i wygląda jak on sam i oczywiście może udzielić odpowiedzi na wszystkie pytania zabezpieczające (jak zawsze to robił), dlaczego bankier nie akceptuje żadnych instrukcji klienta? Znacznie większą skalę z bankami wykorzystującymi technologię rozpoznawania twarzy do uwierzytelniania klientów na stronach internetowych i aplikacjach mobilnych? Może to obejmować samoobsługę, interakcję z agentem ludzkim lub chatbotem AI. Jeśli twarz pasuje, a pamiętając, że Deepfake nie są statyczne, wykazują żywotność, oszukańcze transakcje zostaną wykonane. To tylko dwa przykłady interakcji z klientami. Bez wątpienia komunikacja i instrukcje międzybankowe mogłyby zostać naruszone w ten sam sposób, czego autor nawet nie wziął pod uwagę. Łatwość identyfikacji przez współpracownika lub pracownika zewnętrznego może stać się kluczem do wykorzystania technologii Deepfake. Nikt nie chce kwestionować tożsamości znanej osoby, która wygląda i brzmi zupełnie normalnie. Wykrywanie Deepfake Jak więc wykryć, że to, co naszym oczom wydaje się prawdziwe i naprawdę brzmi dla naszych uszu, jest w rzeczywistości błędne? Odpowiedź leży w dźwięku Deepfake'a i zastosowaniu zaawansowanych technik biometrycznych głosu. Niezależnie od faktycznego, „ludzkiego” wyglądu Deepfake’a, jest on generowany syntetycznie. Nawet filmy Deepfake niezmiennie zawierają komponent audio i to właśnie dźwięk jest kluczem do jego wykrycia. Zaawansowane algorytmy biometryczne głosu obejmują techniki wykrywania zarówno nagrań, zwanych atakami odtwarzania lub prezentacji, jak i dźwięku generowanego syntetycznie. Bez względu na to, jak „ludzki” głos może brzmieć dla ludzkiego ucha, wydaje się, że nie jest to ważne dla syntetycznych silników detekcji. Ich interpretacja tego, czy dźwięk jest wypowiadany przez człowieka, jest bardzo różna od naszej. Biometria głosowa zawsze była najpotężniejszym i najdokładniejszym sposobem uwierzytelniania lub identyfikowania prawdziwej tożsamości człowieka. Zdolność najbardziej zaawansowanych silników biometrycznych głosu do jednoczesnego rozpoznawania różnicy między człowiekiem a syntetycznie wygenerowanym „człowiekiem” może okazać się nieoceniona, jeśli naprawdę będziemy świadkami powstania Deepfake.