Gigant technologiczny Intel uważa, że ​​ma rozwiązanie narastającego problemu deepfake'ów.

Na początku tego tygodnia firma wprowadziła FakeCatcher, całkowicie nowe oprogramowanie, które wykorzystuje nowe podejście do analizy fałszywych wideo. Najwyraźniej może wykrywać głębokie fałszywe filmy z dokładnością 96%.

Podobnie jak poprzednie rozwiązania do analizy deepfake, to rozwiązanie wykorzystuje moc uczenia maszynowego (otwiera się w nowej karcie). Jednak zamiast szukać niespójności w samym filmie, FakeCatcher analizuje treść, aby ustalić, czy osoba na filmie jest prawdziwym człowiekiem, który został nagrany w pewnym momencie, czy produktem syntetycznym.

(nie)widoczne zmiany na twarzy

Jak to osiągnąć? Według głównego badacza Intel Labs, Ilke Demir, możesz zobaczyć, czy osoba na filmie ma bijące serce, czy nie.

„Kiedy nasze serce pompuje krew, nasze żyły zmieniają kolor” — czytamy w raporcie firmy Intel. „Te sygnały przepływu krwi są zbierane z całej twarzy, a algorytmy tłumaczą te sygnały na mapy czasoprzestrzenne. Następnie, dzięki głębokiemu uczeniu, możemy natychmiast wykryć, czy wideo jest prawdziwe, czy fałszywe. »

Metoda ta jest również znana jako fotopletyzmografia (PPG), sprawdzona metoda pomiaru ilości światła pochłanianego lub odbijanego przez naczynia krwionośne znajdujące się w żywej tkance.

W rozmowie z VentureBeat (otwiera się w nowej karcie) Demir powiedział, że zmiany koloru są niewidoczne dla ludzkiego oka, ale nie dla komputera. „Sygnały PPG są znane, ale nie były wcześniej stosowane do problemu głębokich podróbek”.

Wyjaśnił również, że FakeCatcher zbiera sygnały PPG z 32 różnych miejsc na twarzy.

„Wzięliśmy te mapy i wyszkoliliśmy konwolucyjną sieć neuronową na mapach PPG, aby sklasyfikować je jako fałszywe i prawdziwe” – powiedział Demir. „Po drugie, dzięki technologiom Intela, takim jak [the] Deep Learning Boost Framework for Inference i Advanced Vector Extensions 512, możemy uruchamiać go w czasie rzeczywistym i do 72 jednoczesnych strumieni wykrywania.

Demir zbudował FakeCatchera z Umurem Ciftci z State University of New York w Binghamton. Deepfake'i najwyraźniej budzą coraz większe obawy, ponieważ bariera wejścia jest obniżona, a tworzenie bardzo angażujących filmów staje się jeszcze łatwiejsze.

Udostępnij to