Esta semana me encontré con un viejo amigo, y me contó qué había hecho durante el verano. Había viajado con su novia a visitar a su familia en Arizona. Su sobrina lo arrastró a una función de “Lilo y Stitch”. Estaba trabajando duro en una nueva start-up. Todo eso me lo dijo en español, un idioma que nunca aprendí, pero entendí cada palabra.
Lo entendí porque estaba usando los nuevos auriculares de Apple que llegan a las tiendas este viernes. Los AirPods Pro 3, que cuestan 250 dólares, utilizan inteligencia artificial para hacer traducciones en tiempo real, su novedad más importante. (Los auriculares, que además tienen una cancelación de ruido apenas mejorada, no son tan distintos de la última versión.) Mientras mi amigo hablaba, la asistente virtual de Apple, Siri, actuaba como intérprete y, con una voz robótica, convertía inmediatamente las palabras en español al inglés dentro de mis oídos.
Más tarde revisé en mi iPhone la transcripción de la conversación para confirmar la precisión de la traducción. Salvo por algunos errores en los que Siri confundió pronombres (se refirió a la novia de mi amigo como “él” en lugar de “ella”), el resultado fue sólido.
Quedé impresionado. Era el ejemplo más contundente que había visto de tecnología de inteligencia artificial funcionando de manera fluida, práctica y potencialmente beneficiosa para mucha gente. Los hijos de inmigrantes que prefieren hablar en su lengua materna podrían comunicarse con mayor facilidad. Los viajeros en países extranjeros podrían entender mejor a taxistas, empleados de hotel o personal de aerolíneas.
También me sería útil en la vida cotidiana para entender a un contratista o un fumigador que no hable inglés y trate de explicarme qué encontró debajo de mi casa.
Y, francamente, también me sorprendió. La incursión de Apple en la inteligencia artificial generativa —la misma que impulsa a chatbots como ChatGPT, de OpenAI, y Gemini, de Google— ha sido, por decirlo suavemente, accidentada. La compañía nunca llegó a lanzar algunas de las funciones de IA que había prometido para el iPhone 16 el año pasado porque la tecnología no funcionaba bien. Y las herramientas de IA de Apple que sí están disponibles, como las de edición de fotos o resúmenes de artículos, han sido decepcionantes en comparación con las de Google.
La robusta tecnología de traducción en los AirPods es una señal de que Apple sigue en la carrera de la IA, pese a sus tropiezos iniciales. Los traductores digitales de idiomas no son nuevos, pero la forma en que Apple integró esta función en los auriculares —un producto que encaja perfectamente en los oídos— promete marcar una diferencia profunda en la frecuencia con que la gente use esta tecnología.
Durante más de una década, los consumidores tuvieron que lidiar con aplicaciones de traducción en sus teléfonos que eran incómodas de usar, como Google Translate y Microsoft Translator. Había que acercar el micrófono del celular a la persona que hablaba en otro idioma y esperar a que la traducción apareciera en pantalla o sonara en los pequeños parlantes del dispositivo. Y las traducciones, muchas veces, eran inexactas.
En cambio, los usuarios de AirPods solo necesitan hacer un gesto para activar el intérprete digital. Aproximadamente un segundo después de que alguien habla, la traducción se reproduce en el idioma preferido del usuario directamente en los auriculares.
Aquí está lo que tenés que saber sobre cómo usar el traductor, cómo funciona la tecnología y por qué probablemente sea mejor que las aplicaciones de traducción del pasado.
Cómo empezar

Configurar los AirPods Pro fue sencillo. Abrí el estuche junto a mi iPhone y toqué un botón para emparejar los auriculares. Para usar el software de traducción tuve que actualizar al sistema operativo más reciente, iOS 26, y activar Apple Intelligence, el software de IA de Apple.
Después tuve que abrir la nueva app Translate de Apple y descargar los idiomas que quería traducir. Por ahora están disponibles español, francés, alemán, portugués e inglés, y pronto llegarán más. Seleccioné el idioma en el que hablaba la otra persona (en este caso, español) y el idioma en el que quería escucharlo.
Hay varios atajos para activar el intérprete, pero la forma más simple es mantener presionadas las dos patitas de los AirPods durante unos segundos, lo que hace sonar un aviso. A partir de ahí, ambas personas pueden empezar a hablar, mientras una transcripción aparece en la app Translate y una voz lee en voz alta las palabras traducidas.
Los dueños de los AirPods Pro 2 de 2022 y de los AirPods 4 del año pasado con cancelación de ruido también pueden acceder a la tecnología de traducción mediante una actualización de software. Para que Apple Intelligence haga las traducciones, también se requiere un iPhone reciente, como el iPhone 15 Pro o algún modelo de la serie 16.
Para que una conversación fluida se traduzca en ambas direcciones, lo ideal es que las dos personas usen AirPods. Dado lo populares que ya son los auriculares de Apple —con cientos de millones de unidades vendidas en todo el mundo— esto parece bastante probable.
Aun así, hay momentos en los que esta tecnología resulta útil incluso si solo una persona lleva AirPods. Muchos inmigrantes con los que interactúo, como mi niñera y mi suegra, se sienten cómodos hablando solo en su lengua materna pero entienden mis respuestas en inglés, así que que yo pueda comprenderlos también sería de gran ayuda.
Por qué las traducciones están mejorando

El uso de los AirPods de modelos de lenguaje de gran escala —la tecnología que emplea estadísticas complejas para predecir qué palabras van juntas— debería lograr traducciones más precisas que las de tecnologías anteriores, explicó Dimitra Vergyri, directora de tecnología del habla en SRI, el laboratorio de investigación detrás de la versión inicial de Siri antes de que Apple la adquiriera.
Algunas palabras tienen distintos significados según el contexto, y los modelos de lenguaje son capaces de analizar todo el alcance de una conversación para interpretar correctamente lo que la gente está diciendo. Las tecnologías de traducción más viejas trabajaban de manera fragmentada, una oración a la vez, lo que podía derivar en errores graves justamente por la falta de contexto, señaló Vergyri.
Aun así, la tecnología de IA en los AirPods todavía puede tener puntos ciegos que lleven a situaciones sociales incómodas, agregó. Las palabras por sí solas no alcanzan para reflejar otros tipos de contexto, como emociones o matices culturales. En Marruecos, por ejemplo, puede ser de mala educación meterse en una charla sin un saludo apropiado, que suele incluir preguntas sobre la familia o la salud de la otra persona.
“Todavía existe una brecha en lo que hace a la comunicación real”, dijo Vergyri. Aun así, remarcó que la tecnología de traducción se volverá cada vez más importante a medida que los trabajadores corporativos se globalicen y necesiten comunicarse a través de culturas distintas.
Por Brian X. Chen, The New York Times