Nowość w iOS 16: spersonalizowany dźwięk przestrzenny – co to jest i jak działa?

Łukasz Bernaczyk   10 czerwca 2022

W iOS 16 Apple ulepszyło dźwięk przestrzenny z dynamicznym śledzeniem ruchu głowy. Ma być teraz jeszcze lepszy, dzięki personalizacji – dopasowaniu do konkretnego użytkownika. Co ciekawe, konfigurację spersonalizowanego Spatial Audio wykonuje się przy użyciu kamery TrueDepth w iPhonie.

berrolia

Spatial Audio – czyli jak działa dźwięk przestrzenny ze śledzeniem ruchów głowy

Spatial Audio, czyli dźwięk przestrzenny od Apple z funkcją śledzenia ruchów głowy, zasadniczo “bierze” dźwięk w formacie 5.1, 7.1 lub Dolby Atmos, a następnie, wykorzystując specjalne algorytmy i filtry kierunkowe audio, dostosowuje częstotliwości, które słyszy każde ucho.

Dzięki temu dźwięki odtwarzane przez dwie słuchawki można umieścić praktycznie w dowolnym miejscu w przestrzeni 3D. Użytkownikowi wydaje się w ten sposób, że poszczególne dźwięki dochodzą z przodu, z boków, z tyłu, a nawet z góry, co finalnie sprawia wrażenia dźwiękowe przebywania w przestrzeni 3D.

Dodatkowo, dzięki funkcji śledzenia ruchu głowy, w momencie, kiedy użytkownik kręci głową w prawo lub w lewo, dźwięki i ich częstotliwości są przeliczane, a następnie odtwarzane tak, że użytkownikowi wydaje się, że to on zmienił swoje położenie względem dźwięku, czyli tak, jak wyglądałoby to w rzeczywistości, gdyby dźwięki faktycznie dochodziły z otoczenia, a nie ze słuchawek.

Nowość iOS 16 – Spersonalizowane Spatial Audio

Aby poprawnie umiejscawiać różne dźwięki w określonych miejscach w przestrzeni 3D Apple używa systemu HRTF (Head-Related Transfer Functions), który w matematyczny sposób oblicza i opisuje takie parametry, jak wewnętrzny kształt ucha, odległość między jednym a drugim uchem, wielkość głowy itp.

W związku z tym, że u każdego użytkownika te parametry wyglądają nieco inaczej, na podstawie wykonanych wcześniej tysięcy pomiarów Apple uśredniało te wartości tak, by niezależnie kto założy AirPodsy, efekt dźwięku przestrzennego był poprawny. Niestety, takie uśrednianie jednocześnie sprawiało, że nie był też doskonały.

Teraz w iOS 16, dzięki możliwości spersonalizowania Spatial Audio przy użyciu kamery True Depth (która jest w stanie dokładnie pomierzyć odległości w trzech wymiarach) użytkownik może wykonać skan swojego lewego i prawego ucha oraz głowy, po to, by system HRTF zamiast z uśrednionych wartości Apple wykorzystał dokładny, “spersonalizowany” model obliczeń na podstawie wspomnianych skanów.

Dzięki temu dźwięk przestrzenny jest jeszcze lepszy, a umiejscowienie poszczególnych dźwięków w przestrzeni 3D jeszcze dokładniejsze.

Więcej o iOS 16:

Na wakacje z nową baterią – w iSpot wymienisz baterię w iPhonie 30% taniej

Źródło

Łukasz Bernaczyk

Swoją przygodę z Apple zaczął w 1992 r. od Macintosha Classic. Od tego czasu wierny użytkownik i fan marki z Cupertino. Z wykształcenia mgr inż. informatyki w inżynierii, pracuje również jako Dyrektor ds. Rozwoju w jednej z podpoznańskich firm. Gadżeciarz, miłośnik amerykańskiej koszykówki, szachów i podróży. W wolnych chwilach eksperymentuje z elektroniką i własnoręcznie robionym smart home.

Podłącz się do nas na Twitterze lub Facebooku, żeby nie przegapić żadnych informacji ze świata Apple.

Poprzedni post:

Następny post: