SOURCE: Audience

Audience

March 02, 2015 04:46 ET

Audience presenta la experiencia natural de usuario —NUE— inspirada por la neurociencia

El primer procesador multisensorial de Audience —el N100— estará dotado de tecnología MotionQ y VoiceQ siempre activa y de bajo consumo

BARCELONA, ESPAÑA--(Marketwired - Mar 2, 2015) - Audience, Inc. (NASDAQ: ADNC), el líder en voz avanzada y pionero en el procesamiento multisensorial y la tecnología de experiencia natural de usuario (NUE) para dispositivos de consumo, anunció hoy al N100, el primer miembro de la familia NUE de procesadores multisensoriales. Los productos NUE están dirigidos a los teléfonos inteligentes, tabletas, wearables y dispositivos IoT. Está previsto que los primeros dispositivos N100 estén disponibles para el muestreo a mediados de 2015. La tecnología multisensorial NUE ha sido diseñada para obtener inteligencia sobre usted y su entorno a partir del incremento cada vez mayor de datos de sensores disponibles en los dispositivos modernos —lo que permite una verdadera concienciación contextual— de tal modo que su dispositivo puede proporcionar una visión y concienciación en su vida diaria.

“Imaginamos un mundo donde las personas interactúen en forma natural con sus dispositivos, y en una forma mejorada con el mundo que les rodea, basado en la visión y concienciación que proporcionará el procesamiento multisensorial. Esta visión está impulsando el desarrollo de la tecnología NUE de Audience, que adquiere la forma de software y procesadores multisensoriales”, dijo Peter Santos, presidente y CEO de Audience. “Hemos diseñado la tecnología multisensorial NUE para obtener inteligencia y contexto de los datos del sensor y el micrófono sobre usted y su entorno, a fin de ofrecer un contexto mejorado que sea útil y siempre activo, al tiempo que preserva la vida de la batería”.

Acerca del procesador multisensorial NUE N100
El N100 será el primer producto de Audience en permitir una experiencia multisensorial completa. Incorporará la tecnología VoiceQ y MotionQ de Audience para posibilitar las aplicaciones con consciencia del contexto. El logro de la consciencia del contexto implica capas de algoritmos sofisticados en la parte superior de la inteligencia sensorial del N100, que interpretan los datos del sensor y del micrófono para deducir la información de mayor nivel. El N100 será capaz de interpretar el contexto, por ejemplo, “el usuario está corriendo”, a partir de una serie de funciones de voz y movimiento característicos recogidos por los sensores.

Tecnología VoiceQ

VoiceQ es la tecnología de reconocimiento de voz de manos libres de Audience que notifica al dispositivo que realice alguna acción cuando se dice una palabra clave segura. La implementación del N100 VoiceQ funciona en tres etapas. Con un detector de actividad de voz de bajo consumo, siempre activado, el N100 escucha continuamente las señales de voz al tiempo que permanece en un modo de consumo ultra bajo. Tras la detección de voz, la señal entrante se compara con frases claves de parámetros definidos o desencadenantes. Durante estas etapas iniciales, solo el N100 y el micrófono digital están activos. Todos los demás componentes del equipo están en el modo de espera de bajo consumo. Cuando se detecta la frase clave, el N100 despierta al dispositivo, indicando la intención del usuario de hablar con el dispositivo a través de una interfaz de usuario de voz. La tecnología VoiceQ en el N100 está diseñada para aceptar hasta cinco palabras clave, que pueden ser una combinación de palabras clave seleccionadas por el usuario o elegidas por el OEM.

La tecnología VoiceQ en el N100 está diseñada para conservar energía reduciendo drásticamente las tasas de aceptación de palabras falsas en comparación con las implementaciones anteriores de activación por voz. La aceptación de una palabra clave falsa equivale a unas dos horas de escuchar palabras clave o un adicional de 20 minutos de uso del teléfono no deseado. El N100 también está diseñado para incorporar una implementación embebida optimizada por energía de la detección hotword de Google, permitiendo que el N100 pueda detectar simultáneamente palabras clave de VoiceQ y Google en menos de 17 MIPS.

Tecnología Motion Q
El N100 estará dotado de la primera implementación de hardware de la biblioteca de MotionQ 1.0, producto de la adquisición de Sensor Platforms por Audience. El software NUE MotionQ está diseñado para incluir algoritmos avanzados, arquitectura consciente de la energía y una consciencia contextual excepcional. En el modo siempre activo, el N100 está diseñado para monitorear continuamente los sensores a los que está conectado, recalibrarlos cuando sea necesario y deducir el contexto a partir de una mezcla inteligente de datos del sensor. El N100 funciona con sensores de una amplia gama de los importantes proveedores, apoyando cualquier driver de sensor con soporte de la plataforma del sensor abierto (OSP).

El diseño de la implementación de N100 MotionQ está dividido para ejecutar tareas críticas de bajo consumo, tales como la fusión de sensores y la detección del contexto en el N100 y la clasificación de contexto con uso intensivo de memoria en el procesador de aplicación (AP). El N100 implementa la OSP Host API permitiéndole comunicarse con la AP por medio del protocolo OSP. La implementación de N100 MotionQ está optimizada para el conjunto de instrucciones de Audience en el N100 con el objetivo de ofrecer el mejor procesamiento central de sensores en su género, fusión de sensores y calibración automática en menos de 2 MIPS.

Para obtener más información sobre los procesadores Audience(R) y códecs inteligentes, por favor haga clic www.audience.com/nue.

Acerca de Audience
Audiencia, el líder en voz avanzada, es pionero en procesamiento multisensorial y experiencia natural de usuario para dispositivos de consumo. Sus tecnologías, basadas en la neurociencia auditiva, mejoran la experiencia de voz de los móviles y optimizan los servicios basados en el habla, así como la calidad de audio para multimedia. A principios de 2014, la empresa anunció su expansión al procesamiento multisensorial y de movimiento. Audience, a través de la combinación de voz avanzada y procesamiento multisensorial, se propone transformar la manera en que los consumidores se relacionan con los dispositivos ofreciendo perfectas experiencias naturales de usuario y servicios de conciencia contextual. Los productos de la Empresa han sido distribuidos en más de 500 millones de dispositivos en todo el mundo. Para obtener más información, visite http://www.audience.com.

Nota cautelar en relación con las declaraciones prospectivas

Las declaraciones en este comunicado de prensa relacionadas con Audience, Inc., que no son hechos históricos, se consideran “declaraciones prospectivas” dentro del significado de la Ley de Reforma de Litigios sobre Valores Privados de 1995. Estas declaraciones prospectivas se pueden identificar por palabras como cree, espera, planea, puede, espera con entusiasmo y las formas negativas de estas palabras u otras expresiones similares. Estas declaraciones, incluso, sin limitación, las capacidades, características y rendimiento de nuestros productos actuales y futuros, se basan en las expectativas y suposiciones actuales que están sujetas a riesgos e incertidumbres. Nuestros resultados reales pueden diferir significativamente de los previstos como resultado de varios factores, entre ellos: nuestra capacidad de diseñar y desarrollar nuevos productos con éxito; la demanda del mercado y la aceptación de nuestros productos; nuestra capacidad de integrar los diseños de productos de los fabricantes de equipos originales; así como otros riesgos inherentes a las empresas de semiconductores sin plantas de fabricación propia. Para un análisis de tales riesgos e incertidumbres, refiérase a la sección “Factores de riesgo” en nuestro más reciente formulario 10-K , que está disponible en el sitio web de la SEC en www.sec.gov. Las declaraciones prospectivas representan las creencias y supuestos de nuestra gerencia únicamente a la fecha en que se realizan. No asumimos obligación alguna para actualizar estas declaraciones prospectivas.

ADNC-G

Contact Information



  • Para obtener más información, comuníquese con:

    Diane Vanasse
    Audience, Inc.
    408-242-0027
    dvanasse@audience.com