WWDC: Co nowego w klipach aplikacyjnych w ARKit 5

WWDC: Co nowego w klipach aplikacyjnych w ARKit 5
            Uno de los anuncios silenciosamente significativos de Apple para la WWDC 2021 tiene que ser sus mejoras planificadas a la función de códigos de clips de aplicaciones de ARKit 5, que se está convirtiendo en una herramienta poderosa para cualquier empresa que venda productos B2B o B2C.</p><h2><strong>Algunas cosas parecen salirse de la página</strong></h2><p>Cuando se presentó el año pasado, el objetivo era ofrecer acceso a las herramientas y servicios que se encuentran en las aplicaciones.  Todos los códigos de clips de aplicaciones están disponibles a través de una plantilla escaneable y posiblemente una NFC.  Las personas escanean el código usando la cámara o NFC para iniciar el clip de la aplicación.
W tym roku Apple ulepszyło obsługę AR w klipach aplikacji i kodach klipów aplikacji, które mogą teraz rozpoznawać i śledzić kody klipów aplikacji w doświadczeniach AR. Dzięki temu możesz uruchomić część doświadczenia AR bez pełnej aplikacji. Jeśli chodzi o doświadczenie klienta, oznacza to, że firma może stworzyć rzeczywistość rozszerzoną, która stanie się dostępna, gdy klient skieruje aparat na kod aplikacji w instrukcji produktu, na plakacie, na stronach magazynu lub na stronie firmy. pokaż sklep: wszędzie tam, gdzie chcesz znaleźć ten zasób. Firma Apple zaproponowała dwa główne, rzeczywiste scenariusze, w których wyobrażasz sobie użycie tych kodów:

Obie implementacje wydawały się dość statyczne, ale można sobie wyobrazić bardziej ambitne zastosowania. Można ich używać do objaśniania mebli do samodzielnego montażu, szczegółowych instrukcji obsługi samochodu lub dostarczania instrukcji dotyczących wirtualnego ekspresu do kawy.

Co to jest klip aplikacyjny?

Klip aplikacji to niewielka część aplikacji, która prowadzi użytkowników przez część aplikacji bez konieczności instalowania całej aplikacji. Te klipy aplikacji oszczędzają czas pobierania i przenoszą użytkowników bezpośrednio do określonej części aplikacji, która jest bardzo istotna dla tego, gdzie się aktualnie znajdują.

Przechwytywanie obiektu

Na konferencji WWDC 2021 Apple zaprezentowało także istotne narzędzie pomocnicze, jakim jest przechwytywanie obiektów w RealityKit 2. Dzięki temu programiści znacznie łatwiej mogą tworzyć fotorealistyczne modele 3D obiektów ze świata rzeczywistego przy użyciu obrazów zarejestrowanych na iPhonie, iPadzie lub lustrzance cyfrowej. Zasadniczo oznacza to, że Apple przeszedł od umożliwiania programistom tworzenia rozwiązań AR, które istnieją tylko w aplikacjach, do tworzenia rozwiązań AR, które działają na urządzeniach przenośnych, mniej więcej poza aplikacjami. Jest to ważne, ponieważ pomaga stworzyć ekosystem zasobów, usług i doświadczeń AR, który powinien dalej rozwijać się w tej przestrzeni.

Wymagane szybsze procesory

Ważne jest, aby zrozumieć typ urządzeń, na których można uruchamiać takie treści. Kiedy po raz pierwszy wprowadzono ARKit w systemie iOS 11, Apple stwierdził, że do działania potrzebny jest co najmniej procesor A9. Od tego czasu sytuacja ewoluowała i najbardziej wyrafinowane funkcje ARKit 5 wymagają co najmniej chipa A12 Bionic. W takim przypadku śledzenie kodu App Clip Code wymaga urządzeń z procesorem A12 Bionic lub nowszym, takich jak iPhone XS. Warto zaznaczyć, że do tych eksperymentów potrzebny jest jeden z najnowszych procesorów Apple’a, gdyż firma nieubłaganie zmierza w stronę wprowadzenia na rynek okularów AR. Pomaga to zrozumieć strategiczną decyzję Apple o inwestycji w rozwój chipów. W końcu przejście z procesorów A10 Fusion na procesory A11 spowodowało wzrost wydajności o 25%. W tym momencie wydaje się, że Apple osiąga mniej więcej podobne zyski z każdą iteracją swoich chipów. Po przejściu na chipy 3 nm w 2022 r. powinniśmy zaobserwować kolejny skok naprzód w wydajności na wat, a ten skok wydajności jest teraz dostępny na wszystkich platformach tej firmy dzięki chipom Mac firmy M. Pomimo całej tej mocy Apple ostrzega, że ​​dekodowanie tych klipów może zająć jakiś czas, więc sugeruje, że programiści sugerują wyświetlanie symboli zastępczych, gdy dzieje się magia.

Co jeszcze nowego w ARKit 5?

Oprócz kodów klipów aplikacji ARKit 5 oferuje:

Kotwice lokalizacji

Można teraz umieszczać treści AR w określonych lokalizacjach geograficznych, powiązując doświadczenie z pomiarem długości/szerokości geograficznej w Mapach. Ta funkcja wymaga również procesora A12 lub nowszego i jest dostępna w głównych miastach USA i Londynie. Oznacza to, że możesz spacerować i rejestrować doświadczenia rzeczywistości rozszerzonej, po prostu kierując aparat na znak lub sprawdzając lokalizację w Mapach. Tego rodzaju nałożona rzeczywistość powinna być wskazówką dla planów firmy, szczególnie w zakresie poprawy dostępności, rozpoznawania ludzi i ciągów pieszych.

Ulepszenia przechwytywania ruchu

ARKit 5 może teraz dokładniej śledzić stawy ciała na dłuższych dystansach. Funkcja przechwytywania ruchu dokładniej obsługuje szerszy zakres ruchów kończyn i pozycji ciała na procesorach A12 lub nowszych. Nie są wymagane żadne zmiany w kodzie, co powinno oznaczać, że każda aplikacja korzystająca z przechwytywania ruchu w ten sposób będzie działać z większą dokładnością po wydaniu systemu iOS 15.

Lea también:

Śledź mnie na Twitterze lub dołącz do mnie w AppleHolic Bar & Grill i grupach dyskusyjnych Apple w MeWe.
<p>Copyright © 2021 IDG Communications, Inc.</p>