Noticias
Apple adquiere VocalIQ y sigue apostando por el lenguaje natural
Aunque el frenesí de adquisiones de startups por parte las grandes empresas parece haber frenado su ritmo, todavía se siguen produciendo compras, destinadas generalmente a incorporar al activo de las grandes compañías algún desarrollo o tecnología que encaja en su estrategia de mercado. Tal es el caso de Apple, que ha comprado VocalIQ, una empresa británica especializada en las funciones de reconocimiento de voz. La finalidad de dicha adquisición es, evidentemente, incorporar las mejoras propias de la API diseñada por VocalIQ a Siri, el asistente de voz de los dispositivos con iOS.
Las tecnologías desarrolladas por la empresa adquirida por Apple se centran, esencialmente, en lo que se denomina lenguaje natural, es decir, en evitar el uso de comandos y frases específicas para interactuar con el sistema. Un ejemplo de ello es la diferencia entre tener que decir «Llamar. Contactos. Miguel. Móvil» y «Llama a Miguel al móvil». Con el lenguaje natural no es necesario «aprender a hablar» con los sistemas, son estos los que aprenden a entender al usuario, que así se puede expresar con naturalidad, tal y como lo hace en su día a día.
La evolución de los asistentes de voz de los principales fabricantes (Siri de Apple, Google Now de Google y Cortana de Microsoft) a este respecto resulta más que evidente, cada día es más sencillo comunicarse con ellos. Sin embargo, en una entrada publicada en el blog de VocalIQ en marzo de 2015 (y que ha sido borrada recientemente, pero que todavía se puede ver en la caché de Google), la empresa ahora adquirida por Apple criticaba abiertamente estos sistemas, a los que denominaba «de juguete», y atacaba la, según su criterio, poca capacidad de aprendizaje basado en la interacción con el usuario. Según afirmaban en dicha publicación, esos sistemas se basan en esquemas preconcebidos que, en el mejor de los casos, califica de medievales.
Con esta compra, cabe esperar que Siri experimente una importante mejora a medio plazo, y dado que lo que incorporará serán cambios en su sistema de análisis e interpretación de «lo que escucha», y no de cómo procesa las palabras de un determinado idioma, los cambios deberían afectar por igual a todos los usuarios de iOS, independientemente del país en el que se encuentren y el idioma en el que hablen.
Imagen: Karlis Dambrans
-
OpiniónHace 6 días
10 predicciones para los proveedores de servicios gestionados en 2025
-
NoticiasHace 7 días
AMD despedirá al 4% de su plantilla mientras se centra en IA y centros de datos
-
NoticiasHace 3 días
El Capitan es el nuevo superordenador más potente y rápido del mundo
-
NoticiasHace 7 días
La Comisión Europea multa a Meta con 798 millones por perjudicar a la competencia de Marketplace