Vid årets WWDC 2023 keynote avslöjade Apple att de introducerar Adaptive Audio till AirPods. Den nya funktionen blandar transparensläge med aktiv brusreducering för att matcha förhållandena i din naturliga omgivning.
Med hjälp av maskininlärning kommer Adaptive Audio att skapa en mer anpassad och dynamisk lyssningsupplevelse så att du inte behöver leka med ljudinställningar på din iPhone när du är på resande fot.
Nu när dina AirPods upptäcker att du pratar med någon medan det finns mycket bakgrundsljud med människor som pratar, kommer en ny funktion som heter Conversational Awareness automatiskt att sänka ljudvolymen och bakgrundsljudet så att du kan fokusera på personen framför du.
En annan funktion som heter Personalized Volume introducerades också och som syftar till att göra den omgivande lyssningsupplevelsen – när du går på en gata eller på jobbet och fortfarande vill vara medveten om din omgivning – mycket mer finjusterad och anpassningsbar (jag kan se var de fick namnet).
Conversation Awareness och Adaptive Audio identifierar bakgrundsljud som fjärrkonversationer eller ett marschband och minskar volymen på dessa med Personalized Volume – tillsammans arbetar alla tre funktionerna för att skapa en mer harmoniserad lyssningsupplevelse.
Den är inte justerbar utan anpassningsbar
Även om aktiv brusreducering är en funktion som för närvarande bara är tillgänglig för AirPods Pro 2 och AirPods Max, finns det bara tre lägen tillgängliga - ANC, transparensläge och av.
Genom att introducera Adaptive Audio har Apple lagt till ett fjärde läge som kan erbjuda den brusreducering som vi har letat efter. Vi skrev tidigare om sex funktioner som jag hoppas att Apple lägger till i iOS 17 på WWDC och justerbara transparenslägen var en stor för oss.
Det beror på att transparensläget är begränsat till att antingen slås på riktigt högt till ingenting alls. Adaptive Audio ser ut att erbjuda lösningen genom att justera transparensnivån automatiskt för att matcha miljön. Det verkar som att Apple verkligen lyssnade.