*

Bitcoin (24h)
-.02% Ars
308044.66
Bitcoin (24h)
-.02% USA
17598.33
Bitcoin (24h)
-.02% Eur
$14969.40
Online

Histórico: La tecnología ya entiende el lenguaje a la par del humano

Microsoft publicó un articulo donde afirma que logró desarrollar un método computacional capaz de reconocer el lenguaje natural con el mismo márgen de error que un ser humano. Es una gran avance en el desarrollo de mejores chatbots y tecnología de reconocimiento múltiple de voces. 19 de Octubre 2016
Histórico: La tecnología ya entiende el lenguaje a la par del humano

Cuando una persona habla con otro, en promedio logran entender entre si casi el 96% de la conversación. Es decir, en toda conversación natural entre personas hay al menos en promedio, un 5.9% de márgen de error. Hoy, el departamento de investigación de Microsoft publicó un estudio donde afirman que lograron desarrollar una tecnología capaz de llegar a ese umbral de margen de error.

Anteriormente, el mayor hito en este campo fue un error del 6.6%, alcanzado con anterioridad por la empresa Redmond.

La tasa de error reportada por los investigadores de Microsoft, es equivalente a la de una persona capaz de transcribir la misma conversación. Además, es la más baja registrada en los proyectos de reconocimiento de voz de toda industria. Más allá del logro en sí, este paso facilita enormemente que el ser humano pueda comunicarse y hasta conversar con los ordenadores, ofreciendo no solo nuevos niveles de interacción sino también posibilidades tanto para uso diario como para las personas con dificultades localizadas. Así mismo, este es un paso importante para Microsoft, pues ya estaría en la capacidad de desarrollar robustos asistentes personales para competir con Google Home o Alexa de Amazon.

El próximo paso que quiere dar la empresa es optimizar la efectividad del reconocimiento para conversaciones naturales en ámbitos ruidosos (como la calle) o conversaciones con múltiples personas.



¿Te gustó la nota?

Comparte tus comentarios

Sé el primero en comentar

Notas Relacionadas