El punto no es elegir entre una u otra, sino hacerlas operar como un mismo sistema.Ya no se trata de aislar al usuario, sino de adaptar el audio al entorno traduciendo un esquema de control adaptativo que ajusta automáticamente el nivel de cancelación dependiendo del contexto.
“No necesitas saber dónde estás, el sistema se ajusta”, refirió Cho.
Al mismo tiempo, otras funciones como el intérprete en tiempo real o el acceso a asistentes de IA con el smartphone son más fáciles de encontrar.
Ese enfoque es consistente con la estrategia más amplia de Samsung, que busca integrar capacidades de IA en todos sus dispositivos.
Por ello, la empresa combina un micrófono externo con un sensor interno que detecta vibraciones en el cuerpo para aislar la voz del usuario incluso en ambientes ruidosos. “El sistema identifica tu voz y la filtra del ruido que te rodea”, explicó la compañía durante una presentación enfocada en el audio de estos audífonos.
Para lograrlo, el modelo fue entrenado con datos de distintos entornos, desde cafés hasta estaciones de tren. Diseñar el ajuste y la acústica requirió de la recopilación de más de 5,600 muestras de oídos y cerca de 100 millones de puntos de datos.
Todo esto ocurre en un mercado altamente competitivo. Samsung mantiene alrededor de 10% de participación en audífonos inalámbricos frente a más de 30% de Apple, y busca diferenciarse a través de la integración con Android y funciones de IA.