Microsoft adquiere Semantic Machines para que su IA suene más humana, Technology News, ETtech

Mientras que Google ha estado trabajando en una versión realista de su tecnología Artificial Intelligence (AI) Microsoft se ha subido al carro adquiriendo el desarrollador de IA con sede en los Estados Unidos “ Semantic Machines ” para desarrollar la tecnología más cercana a cómo hablan los humanos.

“Con esta adquisición, Microsoft planea establecer un AI conversacional centro de excelencia en Berkeley, California, para experimentar e integrar ' procesamiento del lenguaje natural ( NLP ) tecnología' en sus productos como Cortana “David Ku, Vicepresidente y Director de Tecnología de AI e Investigación en Microsoft, escribió en una publicación de blog.

” Para una comunicación rica y efectiva, los asistentes inteligentes deben ser capaces de tener un diálogo natural en lugar de solo respondiendo a los comandos, “s ayuda Ku.

Recientemente, Microsoft se convirtió en el primero en agregar sentido de voz “full-duplex” a un sistema conversacional de inteligencia artificial para que los usuarios puedan mantener una conversación natural con su chatbot XiaoIce y su ayudante Cortana.

“Full “dúplex” es una técnica para comunicarse en ambas direcciones simultáneamente, principalmente como una llamada telefónica con tecnología basada en inteligencia artificial que conversa por un lado.

Un producto central de “Máquinas semánticas”, su “motor de conversación” extrae sus respuestas de voz natural o entrada de texto y luego genera un marco de aprendizaje autoactualizable para administrar el contexto del diálogo y los objetivos del usuario.

“Los sistemas de lenguaje natural comercial de hoy como Siri, Cortana y Google Now solo comprenden comandos, no conversaciones”, dijo “Máquinas semánticas” en una publicación.

“Con nuestra IA conversacional, nuestro objetivo es desarrollar una tecnología que vaya más allá de comprender los comandos, entender las conversaciones”, agregó la compañía.

A principios de mayo, Sundar Pichai, CEO, Google, int roduced “Duplex” en Google I / O y demostró cómo el sistema AI podía reservar una cita en un salón y una mesa en un restaurante donde el Asistente de Google sonaba como un humano.

Utilizó la nueva generación de audio “WaveNet” de Google DeepMind técnica y otros avances en el procesamiento del lenguaje natural (NLP) para replicar los patrones del habla humana.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *