Ved dette års WWDC 2023 keynote afslørede Apple, at de introducerer Adaptive Audio til AirPods. Den nye funktion blander gennemsigtighedstilstand med aktiv støjreduktion for at matche forholdene i dine naturlige omgivelser.
Ved hjælp af maskinlæring vil Adaptive Audio skabe en mere tilpasset og dynamisk lytteoplevelse, så du ikke behøver at lege med lydindstillinger på din iPhone, mens du er på farten.
Nu når dine AirPods registrerer, at du taler til nogen, mens der er en masse baggrundsstøj, mens folk taler, vil en ny funktion kaldet Conversational Awareness automatisk sænke lydstyrken og baggrundsstøjen, så du kan fokusere på personen foran du.
En anden funktion kaldet Personalized Volume blev også introduceret, og som har til formål at gøre den omgivende lytteoplevelse – når du går på gaden eller på arbejde og stadig ønsker at være opmærksom på dine omgivelser – meget mere finjusteret og tilpasningsdygtig (jeg kan se, hvor de har navnet).
Samtalebevidsthed og adaptiv lyd identificerer baggrundsstøj såsom fjerne samtaler eller et marcherende band og reducerer lydstyrken på disse med Personalized Volume – tilsammen arbejder alle tre funktioner for at skabe en mere harmoniseret lytteoplevelse.
Den er ikke justerbar, men tilpasningsdygtig
Mens aktiv støjreduktion er en funktion, der i øjeblikket kun er tilgængelig for AirPods Pro 2 og AirPods Max, er der kun tre tilgængelige tilstande - ANC, gennemsigtighedstilstand og slukket.
Ved at introducere Adaptive Audio har Apple tilføjet en fjerde tilstand, der kunne tilbyde den mellemliggende støjreduktion, som vi har ledt efter. Vi skrev tidligere om seks funktioner, som jeg håber, Apple tilføjer i iOS 17 på WWDC, og justerbare gennemsigtighedstilstande var en stor en for os.
Det kommer ned til, at gennemsigtighedstilstanden er begrænset til enten at være tændt virkelig højt til slet ingenting. Adaptive Audio ser ud til at tilbyde løsningen ved at justere niveauet af gennemsigtighed automatisk, så det passer til omgivelserne. Det ser ud til, at Apple virkelig lyttede.