Radar Google Soli widzi Twoje intencje i jest mniej przerażający i bardziej użyteczny niż myślisz

Radar Google Soli widzi Twoje intencje i jest mniej przerażający i bardziej użyteczny niż myślisz

Radar, technologia mająca prawie sto lat, okazuje się znacznie bardziej przydatna we współczesnej informatyce i elektronice, niż ktokolwiek mógłby sądzić.

Jest dodawany do żarówek, aby pomóc wykryć, czy ktoś upadł i nie może wstać, i został wprowadzony do telefonu Google Pixel 4 Android kilka lat temu, aby umożliwić bezdotykowe działania oparte na gestach.

Teraz jednak wyszukiwarka ATAP Google staje się coraz bardziej agresywna, wykorzystując technologię wykrywania radiowego i odległości do wykrywania ludzi, ich działań, ich orientacji, ich pozycji względem czujników, a co najważniejsze, co oznacza ten ruch i interakcja.

nowa siatka

We wtorek grupa Google ATAP, która jest odpowiedzialna za badanie technologii noszenia i Soli Radar w Pixel 4, zaprezentowała swój najnowszy projekt badawczy Soli Radar, który koncentruje się na niewerbalnych interakcjach z systemem radarowym.

Opisane w filmie na YouTube, naukowcy wyjaśniają, w jaki sposób wykorzystują siatkową sieć radarów Soli, które można zintegrować z urządzeniami takimi jak Google Nest, do wykrywania ludzi poruszających się wokół i w pobliżu urządzeń.

„Urządzenia świadome ekologicznie i społecznie” wykorzystują Soli i radar maszynowy oraz głębokie uczenie, aby zrozumieć, co oznaczają nasze działania. Wszystko, od machnięcia ręką, przez obrót głowy, odległość od urządzeń, prędkość, z jaką je mijamy, a nawet orientację naszego ciała względem urządzeń, mówi systemowi coś o naszych intencjach.

„Inspiruje nas sposób, w jaki ludzie wchodzą ze sobą w interakcje. Jako istoty ludzkie rozumiemy się intuicyjnie, nie mówiąc ani słowa. Na filmie szef Google ATAP Design.

Jasnym celem jest, aby komputery rozumiały nas tak, jakby były trochę bardziej ludzkie.

Czujniki radarowe pomagają urządzeniom (a także tej sztucznej inteligencji) zrozumieć kontekst społeczny wokół nich, a następnie podjąć odpowiednie działania.

Na filmie pokazali nieprzejrzyste ekrany, które zauważyły, kiedy ludzie na nich patrzą. Potrafili dostrzec różnicę między kimś, kto celowo skupia całą swoją uwagę na ekranie, a kimś, kto po prostu przypadkowo na niego patrzy. W jednym przypadku mały biały ekran błysnął deszczem i parasolem, aby ostrzec kogoś wychodzącego, że może powinien wziąć parasol.

Trochę zabawnie było usłyszeć, jak badacze opisują sąsiedztwo komputera jako „przestrzeń osobistą”. Mimo to idea jest jasna, komputer wyposażony w Soli Radar może reagować na podejście osoby bardziej jak inna osoba, a nie tylko komputer. Zamiast czekać, aż stukniesz w klawiaturę, aby ją włączyć, może wykryć Twoje podejście i zacząć.

„Podejście” jest właściwie jednym z nowych prymitywów interakcji z komputerem. Pozostałe to „wyjdź”, „patrz” i „przekaż”. Działania urządzenia różnią się w zależności od wykrytego prymitywu ruchu.

„Nasza technika wykorzystuje zaawansowane algorytmy, w tym głębokie uczenie się, aby zrozumieć niuanse subtelnej mowy ciała ludzi” – powiedział w filmie Eiji Hayashi, kierownik ds.

Te niuanse obejmują kierunek, w którym zwrócona jest głowa, ale mogą również oznaczać, że system Soli Radar może wykryć, kiedy przechylasz głowę, aby wskazać „Nie rozumiem”.

Jedną z zalet używania radaru w porównaniu z czujnikami optycznymi do wykrywania intencji jest to, że radary niczego nie „widzą” i zbierają obrazy. Po prostu używają fal radiowych do zbudowania siatki ruchu, ruchu i pozycji. Od oprogramowania zależy, czy to zrozumie.

Chociaż niektóre technologie radarowe są już stosowane w elektronice użytkowej, projekt Google ATAP Soli Radar jest daleki od realizacji. Być może dlatego przyszłość z radarem wydaje się tak bliska XNUMX wieku.

„Te urządzenia zostały zaprojektowane tak, aby reagować na nas z tła w cichy i pełen szacunku sposób” – powiedział w filmie Timi Oyedeji, projektant interakcji ATAP w Google. ”.