Podczas tegorocznego przemówienia WWDC 2023 Apple ujawniło, że wprowadza Adaptive Audio do AirPods. Nowa funkcja łączy tryb przezroczystości z aktywną redukcją szumów, aby dopasować się do warunków w Twoim naturalnym otoczeniu.
Korzystając z uczenia maszynowego, Adaptive Audio stworzy bardziej spersonalizowane i dynamiczne wrażenia słuchowe, dzięki czemu nie będziesz musiał bawić się ustawieniami dźwięku na iPhonie, gdy jesteś w ruchu.
Teraz, gdy Twoje AirPods wykryją, że rozmawiasz z kimś, podczas gdy w tle jest dużo hałasu, gdy ludzie rozmawiają, nowa funkcja o nazwie Conversational Awareness automatycznie obniży głośność dźwięku i hałas w tle, abyś mógł skupić się na osobie przed sobą Ty.
Wprowadzono również inną funkcję o nazwie Personalizowana głośność, która ma na celu sprawienie, aby wrażenia dźwiękowe otoczenia — kiedy idziesz ulicą lub w pracy i nadal chcesz być świadomy swojego otoczenia — były o wiele bardziej dopracowane i adaptacyjne (mogę zobacz, skąd wzięli nazwę).
Rozpoznawanie konwersacji i adaptacyjny dźwięk identyfikują odgłosy tła, takie jak odległe rozmowy lub orkiestrę marszową, i zmniejszają ich głośność za pomocą spersonalizowanej głośności – wszystkie trzy funkcje działają razem, aby zapewnić bardziej zharmonizowane wrażenia słuchowe.
Nie jest regulowany, ale można go dostosować
Podczas gdy aktywna redukcja szumów jest obecnie dostępna tylko w AirPods Pro 2 i AirPods Max, dostępne są tylko trzy tryby – ANC, tryb przezroczystości i wyłączony.
Wprowadzając Adaptive Audio, Apple dodał czwarty tryb, który może oferować tłumienie szumów w środku, którego szukaliśmy. Wcześniej pisaliśmy o sześciu funkcjach, które mam nadzieję, że Apple doda w iOS 17 na WWDC, a regulowane tryby przezroczystości były dla nas duże.
Sprowadza się to do tego, że tryb przezroczystości jest ograniczony do włączenia naprawdę wysokiego do zera. Adaptive Audio stara się zaoferować rozwiązanie, automatycznie dostosowując poziom przezroczystości do otoczenia. Wygląda na to, że Apple naprawdę słuchało.