Choć wirtualne, żywioły (ziemia, powietrze, ogień i woda) są tak samo ważne w nierzeczywistości, jak w rzeczywistości. Te wirtualne elementy muszą być uzupełnione technologiami zastępującymi zwykłą percepcję sensoryczną: pozycjonowanie przestrzenne, wykrywanie obiektów, teledetekcja itp. Połącz to wszystko i masz system operacyjny do naśladowania rzeczywistości w nierzeczywistości.

Apple to buduje.

Rzeczywistość rozszerzona jest wszędzie na WWDC22

WWDC 2022 nie widział, jak Apple wspomniał o okularach rozszerzonej rzeczywistości (AR), nad którymi wszyscy myślimy, że pracują.

I chociaż rozszerzona rzeczywistość otrzymała kilka wzmianek podczas poniedziałkowego przemówienia firmy, tak naprawdę nie ewangelizowała technologii. Jest zupełnie inny niż w poprzednich latach. Ogólnie rzecz biorąc, firma od sześciu lat ma coś do zaoferowania na ten temat, a dyrektor generalny Tim Cook powiedział: „Od dłuższego czasu działamy w rozszerzonej rzeczywistości, uważamy, że są świetne rzeczy dla klientów i wspaniałe możliwości biznesowe”.

To, że w tym roku nie powiedział zbyt wiele, jest niezwykłe.

Chociaż firma nie wspomniała zbyt wiele na scenie, sesje rozwojowe, które odbywają się podczas pokazu, opowiadają inną historię. Wydają się pokazywać jawne i ukryte przykłady filozofii i technologii wspierających AR w prawie każdym aspekcie.

Nawet możliwość obsługi wielu okien w aplikacjach Swift UI może być ważna, ponieważ firma dąży do nowych sposobów interakcji z danymi. To niesamowite, sterowane kamerą narzędzie do wyświetlania szerokokątnego pulpitu do jednoczesnego wyświetlania twarzy użytkownika i widoku z lotu ptaka na pulpit może równie dobrze być czubkiem przysłowiowego kapelusza dla nowych sposobów jego wykorzystania.

Czy twoje palce potrzebują prawdziwej klawiatury, kiedy możesz mieć wirtualną? Kiedy będziemy używać naszych komputerów Mac jako okularów przeciwsłonecznych?

[Przeczytaj też: Apple wzywa Meta do hipokryzji]

O czym tak naprawdę jest Apple

Sesje programistyczne WWDC firmy Apple są splecione z funkcjami promującymi, aktywującymi lub sugerującymi, w jaki sposób Apple jest na zaawansowanym etapie tworzenia podwalin pod rozszerzanie swoich platform. Zajrzyj do kalendarza sesji, a znajdziesz odpowiednie sesje, takie jak:

  • Uczenie maszynowe w Metal, aby tworzyć coraz bardziej realistyczne wrażenia w grach.
  • MetalFX, potężny interfejs API umożliwiający wysokiej jakości efekty graficzne o wysokiej wydajności.
  • Podczas jednej sesji w ARKit6 programiści mogą tworzyć doświadczenia AR renderowane w 4K HDR, aby uzyskać jeszcze bardziej fotorealistyczne sceny.

Pomaganie komputerom w zrozumieniu, gdzie się znajdują i co widzą, jest również istotną częścią budowania rzeczywistości rozszerzonej. RoomPlan pokazuje, w jaki sposób Apple buduje technologię do tego celu, mimo że rosnąca liczba kategorii rozumianych przez jego potężne narzędzie wyszukiwania pokazuje coraz większe zrozumienie otaczającego środowiska. LiveText w wideo sprawia, że ​​każde słowo, które możesz wpisać w aparacie, może być używane we wszystkich twoich aplikacjach.

Jeśli umiesz czytać sztukę, umiesz czytać drogę, jak sądzę.

I nie tylko Sprawdź rosnącą liczbę danych lokalizacyjnych dostępnych teraz w Mapach i MapKit, gdzie możesz odkrywać całe miasta w szczegółowym 3D. Kamery LiDAR zapewniają głębię. UWB może być alternatywną siecią LAN i technologią wspierającą, taką jak Universal Scene Description. Przyjrzyj się tym sesjom jeszcze raz, a zobaczysz, że wiele z nich wykonuje podwójną funkcję: wspierają istniejące platformy Apple i wspierają te, które naszym zdaniem powoli wychodzą na światło dzienne. .

Więcej niż się wydaje

Tylko zarysowałem powierzchnię tego, co widzimy, ale wniosek jest prosty: Apple nie jest jeszcze gotowy do omawiania swoich szerszych planów, ale na WWDC 2022 po cichu wyposaża swoich programistów w narzędzia, których potrzebują do tworzenia. bardziej wyrafinowane. Doświadczenia AR. .

Skupienie się na inteligentnym (maszynowym) postrzeganiu i zrozumieniu bezpośredniej rzeczywistości wokół komputera jest najgłębszym elementem tej układanki. Rozwiązanie go pozwoli Apple oferować narzędzia do tworzenia zautomatyzowanych rozwiązań dla wielu ról. To, co możemy w końcu nazwać realityOS dla doświadczeń konsumentów, może bardzo łatwo stać się „przemysłowym systemem operacyjnym” dla inteligentnej produkcji. Kiedy już będziesz mieć percepcję, głębię, lokalizację i rozpoznawanie obiektów, będziesz miał możliwość automatyzacji.

Apple ma wszystkie te rzeczy, a także wytwarza krzem, który je zasila.

Już za bardzo wyprzedziłem rzeczywistość, w której się teraz znajdujemy. Ale podczas gdy Apple brzmiało cicho o swoich planach AR podczas swojego przemówienia, poszukaj głębiej, a zobaczysz, że tam, gdzie ma to znaczenie, w kontaktach z programistami podczas wydarzenia, AR i technologia wspierająca AR są bardzo modne.

Tymczasem ulubiony enigmatyczny młynarz plotek Apple, Ming-Chi Kuo, uważa, że ​​firma rzuci trochę światła na swoje plany AR podczas specjalnego wydarzenia medialnego w styczniu 2023 roku, 16 lat po premierze iPhone'a w styczniu 2007 roku. ma to pewien historyczny oddźwięk i mówi wiele o rosnącym zaufaniu firmy do platformy, którą chce zbudować. Moim zdaniem firma posiada już wiele technologii deweloperskich, które wspierają ten kolejny krok. Potrzebujesz tylko trochę więcej czasu, aby zrobić to dobrze.

Silnik innowacji firmy Apple wciąż jest „pełny gaz”, powiedział Morgan Stanley. Zgadzam się.

Śledź mnie na Twitterze lub dołącz do mnie w barze i grillu AppleHolic oraz w grupach dyskusyjnych Apple w MeWe.

Prawa autorskie © 2022 IDG Communications, Inc.

Udostępnij to