No cabe duda de que la tecnología se ha convertido en parte crucial de nuestras vidas. Los móviles, las tabletas o los ordenadores nos permiten estar en conexión constante con otras personas, crear contenido, hacer transacciones bancarias, adquirir todo tipo de artículos o asistir a una consulta médica desde casa, entre otras muchas cosas.

Un gran problema de esta nueva era online es que personas no deseadas pueden acceder a toda la información de nuestros dispositivos. Y también nos podemos encontrar con dificultades de acceso si no recordamos la contraseña o al buscar información específica en vídeos.

Por eso es tan importante incorporar técnicas de inteligencia artificial que reconozcan rasgos únicos e intransferibles del usuario como su cara o su voz, a modo de “huella digital”. La ventaja sobre la huella dactilar, por ejemplo, es que los dispositivos no precisan una tecnología específica: basta con la cámara y/o el micrófono que ya incorporan casi todos los modelos.

Máquinas que aprenden al estilo de nuestras neuronas

En los últimos años se han producido grandes avances en este campo gracias a las técnicas de aprendizaje profundo basadas en redes neuronales. Estas redes intentan aprender igual que el cerebro, simulando el proceso de aprendizaje por acierto y error que llevan a cabo nuestras neuronas. Por ejemplo, cuando somos bebés, no sabemos distinguir a quién estamos viendo u oyendo. El cerebro aprende a identificarlos con la experiencia.

La clave del proceso es, pues, el entrenamiento. Se trata de ofrecer al sistema un conjunto de datos de entrada, indicándole la información que debe aprender de ellos. Una vez asimile dicha información, sabrá qué debe hacer cuando reciba nuevos datos. En el caso que nos ocupa, voces e imágenes de rostros.

Estas técnicas ya funcionan bastante bien cuando se “alimenta” al sistema con mucha información. Pero ¿qué pasa si queremos crear un sistema de reconocimiento de personas por su voz con pocos datos específicos para la aplicación donde se va a usar?

Identificar la frase exacta

Hoy en día, es fácil disponer de grabaciones sonoras de personas que hablan de cualquier tema, pero no tanto diciendo una frase específica que permita mejorar la seguridad o la personalización de los sistemas de reconocimiento.

Un ejemplo son los asistentes virtuales que solo se activan cuando el dueño dice: ‘Oye, Siri’ u ‘Ok, Google’. Estos aparatos funcionan ya bastante bien hoy en día, pero los desarrolladores no siempre pueden disponer de los inmensos recursos con los que cuentan Apple o Google.

En casos así, con pocos datos adecuados para enseñar al sistema, usar grandes redes neuronales entrenadas de forma genérica no es la mejor solución. El sistema no va a poder diferenciar correctamente entre varios individuos hablando y diciendo una frase específica.

Para abordar este desafío, en el Instituto de Investigación en Ingeniería de Aragón, Universidad de Zaragoza, hemos usado redes neuronales modificadas. En su desarrollo tuvimos en cuenta la importancia de que la persona que habla pronuncie la frase que le corresponde, ya que tratar todas las partes de las grabaciones por igual –como lo hacen las grandes redes neuronales– no es lo ideal en estos casos.

Con este fin, introdujimos modificaciones que permitieran fijar la atención de los sistemas en los distintos segmentos de la frase pronunciada, aparte de reconocer la identidad del locutor. Las redes así creadas han demostrado ser robustas y capaces de diferenciar bastante bien entre diferentes personas diciendo cosas concretas.

Más allá de estos avances, la escasez de datos específicos en determinadas situaciones sigue constituyendo un reto para mejorar la seguridad y la personalización de los sistemas de reconocimiento. Por ejemplo, todavía nos encontramos con problemas cuando la voz del locutor cambia mucho debido a una enfermedad.

Por otra parte, también nos podemos enfrentar al problema opuesto: ¿qué ocurre cuando disponemos de demasiada información y dos rasgos físicos que reconocer?

Reconocimiento simultáneo de voz y rostro

La expansión de dispositivos con cámaras y micrófonos ha aumentado exponencialmente el volumen de vídeos disponibles en los propios aparatos o internet en general. Esas grabaciones son muy valiosas para desarrollar las técnicas de inteligencia artificial: pueden aprovecharse las voces y los rostros para crear sistemas más seguros que identifiquen ambos rasgos a la vez.

Sin embargo, necesitamos saber qué información exacta aparece en los archivos. Hasta ahora ese proceso se ha hecho manualmente y es muy costoso.

En el trabajo citado anteriormente también desarrollamos nuevos sistemas de reconocimiento conjunto de voz y cara que pueden ayudar a analizar y catalogar el contenido audiovisual de manera más eficiente y automática. Por ejemplo, permitiría buscar en un programa de noticias en qué momento ha hablado alguien de algún tema o cuándo ha aparecido en escena, aunque esté en silencio.

En resumen, la tecnología de reconocimiento de voz y rostro ha avanzado mucho en los últimos años y ya es parte de nuestra vida cotidiana, pero aún existen desafíos por delante. Es importante abordarlos para mejorar el acceso y la seguridad de nuestros dispositivos y acercar la tecnología a todas las personas.

 

The Conversation

Victoria Mingote Bueno, Investigadora Postdoctoral del Departamento de Ingeniería Electrónica y Comunicaciones y del Instituto Universitario de Investigación en Ingeniería de Aragón (I3A), Universidad de Zaragoza

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre