På årets WWDC 2023 keynote avslørte Apple at de introduserer Adaptive Audio til AirPods. Den nye funksjonen blander gjennomsiktighetsmodus med aktiv støyreduksjon for å matche forholdene i dine naturlige omgivelser.
Ved å bruke maskinlæring vil Adaptive Audio skape en mer tilpasset og dynamisk lytteopplevelse slik at du ikke trenger å leke med lydinnstillingene på iPhone mens du er på farten.
Nå når AirPods oppdager at du snakker til noen mens det er mye bakgrunnsstøy med folk som snakker, vil en ny funksjon kalt Conversational Awareness automatisk senke lydvolumet og bakgrunnsstøyen slik at du kan fokusere på personen foran du.
En annen funksjon kalt Personalized Volume ble også introdusert, og som har som mål å gjøre den omgivende lytteopplevelsen – når du går nedover en gate eller på jobb og fortsatt ønsker å være oppmerksom på omgivelsene dine – mye mer finjustert og tilpasningsdyktig (jeg kan se hvor de fikk navnet).
Samtalebevissthet og adaptiv lyd identifiserer bakgrunnsstøy som fjerntliggende samtaler eller et marsjerende band og reduserer volumet på disse med Personalized Volume – sammen jobber alle tre funksjonene for å skape en mer harmonisert lytteopplevelse.
Den er ikke justerbar, men tilpasningsbar
Mens aktiv støyreduksjon er en funksjon som for øyeblikket kun er tilgjengelig for AirPods Pro 2 og AirPods Max, er det bare tre tilgjengelige moduser – ANC, transparensmodus og av.
Ved å introdusere Adaptive Audio har Apple lagt til en fjerde modus som kan tilby den mellomgrunnsstøyreduksjonen vi har lett etter. Vi skrev tidligere om seks funksjoner jeg håper Apple legger til i iOS 17 på WWDC og justerbare transparensmoduser var en stor en for oss.
Det kommer ned til det faktum at gjennomsiktighetsmodusen er begrenset til enten å være slått på veldig høyt til ingenting i det hele tatt. Adaptive Audio ser ut til å tilby løsningen ved å justere nivået av gjennomsiktighet automatisk for å matche miljøet. Det ser ut som Apple virkelig lyttet.