Google ha lanzado ayer 27 de
setiembre una nueva versión de su software de traducción, el cual usará inteligencia
artificial parar mejorar la traducción en línea. La misma tecnología que
sustenta al sistema AlphaGo (las redes neuronales) ahora jugará un papel muy
grande en el servicio Google Translate.
Siguiendo la manera en que las
neuronas se conectan en el cerebro humano, las redes neuronales profundas son
el mismo tipo de IA que identifican los comandos hablados en los teléfonos
Android y reconocen a las personas en las fotos publicadas en Facebook, y
prometen reinventar la traducción automática de la misma manera.
Google dice que con ciertos
idiomas, su nuevo sistema (conocido como Maquina Neural de Traducción de
Google, o GNMT por sus siglas en inglés) reduce los errores en un 60%. GNMT por
ahora, sólo traduce entre el inglés y el chino, una lengua clave en las
ambiciones de Google. Pero, la compañía planea extenderla a los más de 10 mil
idiomas manejados por Google Translate.
"Podemos entrenar a todo
este sistema (para que funcione de) extremo a extremo.
Eso hace que sea mucho más fácil para Google centrarse en la reducción de la
tasa de error final", dice
el ingeniero de Google Mike Schuster, miembro del equipo de Google Brain, el
cual supervisa el trabajo de la empresa en IA. "Lo que tenemos ahora no es
perfecto. Pero se puede decir que es mucho, mucho mejor".
Todos los grandes gigantes de
Internet se están moviendo en la misma dirección, entrenando sus redes neuronales
profundas con traducciones recogidas a través de Internet. Las redes neuronales
ya han funcionado en algunos sistemas de traducción en línea, y todos saben que
el aprendizaje profundo es la manera de hacerlo todo. "Estamos en una
carrera contra todos", dice
Peter Lee, que supervisa el trabajo de AI en Microsoft Research.
"Todos estamos muy cerca".
Las empresas están trabajando
con este método no sólo porque puede mejorar la traducción automática, sino
porque puede mejorarla de un modo mucho más rápido y mucho más amplio. "El
secreto de los modelos de redes neuronales es que son capaces de generalizar
mejor a partir de la data", dice
el investigador de Microsoft Arul Menezes. "Con el modelo anterior,
sin importar la cantidad de datos que se les introducía, no podían hacer
generalizaciones básicas. En algún momento, más data no significaba una mejora".
Para la traducción automática,
Google está utilizando un tipo de red neuronal profunda llamada LSTM, (memoria de
largo-corto plazo). Una LSTM puede retener la información, tanto a corto
como a largo plazo, como si fuera una memoria humana, permitiéndole aprender de
forma más compleja.
A medida que analiza una
frase, puede recordar el principio de esta a medida que llega al final. Algo diferente
al método anterior, la traducción automática basada en frases de Google, la
cual rompe las oraciones en palabras y frases individuales. El nuevo método analiza
la colección completa de palabras.
Por supuesto, los
investigadores han estado tratando de desarrollar la LSTM durante años para
aplicarla a la traducción. El problema con las LSTMs para la traducción
automática era que no podían con rapidez. Y ahora Google finalmente consiguió
que funcione lo suficientemente rápido como para ejecutar un servicio a través
de Internet.
De acuerdo con Schuster,
Google ha alcanzado esta velocidad, en parte a través de cambios en las propias
LSTMs. Las redes neuronales profundas se componen de una capa tras otra de cálculos
matemáticos alimentando a la siguiente capa con los resultados. Un truco que Google
utiliza es hacer que los cálculos de la segunda capa comiencen antes que la
primera haya terminado, y así sucesivamente.
Pero Schuster también comenta que
gran parte de la velocidad es impulsada por las unidades de procesamiento tensor
de Google (TPU), chips de la compañía construidos específicamente para soportar
IA. Con los TPUs, se puede reducir la velocidad de 10 segundos a 300 milisegundos.
Obviamente Google es el único construyendo su propio chip para esta tarea. Otros
se están moviendo en una dirección similar. Microsoft
utiliza chips programables FPGAs para ejecutar redes neuronales, y empresas
como Baidu están explorando otros tipos de silicio.
Todas estas empresas están
en una carrera no solo para mejorar la traducción automática, sino para
construir sistemas de inteligencia artificial que puedan entender y responder
al lenguaje del ser humano de manera más natural.