En setiembre Google anunció que introduciría en su traductor un nuevo sistema llamado GNMT (Google Neural Machine Translation), el cual está basado en el modelo de “aprendizaje profundo” y recientemente, el equipo a cargo del desarrollo de este ha hecho algunos interesantes hallazgos sobre la inteligencia artificial detrás de esta tecnología.
Los investigadores de los equipos de Google Brain y Google Translate pusieron a prueba a GNMT, al traducir múltiples idiomas en un mismo sistema y encontraron que, aparentemente, su inteligencia artificial era capaz de desarrollar una especie de lenguaje propio.
Por ejemplo, se enseñaba al traductor a hacer interpretaciones del japonés al inglés en ambos sentidos y, de la misma forma e independientemente, del coreano al inglés. Más adelante se pedía a la inteligencia artificial hacer traducciones del coreano al japonés y viceversa prescindiendo del inglés como nexo. Sorprendentemente, los resultados mostraron traducciones coherentes.
La interrogante inmediata que surgió en los científicos de Google fue si el sistema traductor estaba desarrollando una forma común de representar las ideas contenidas en las oraciones, más allá de las diferencias lingüísticas.
Tras analizar a través de un modelo geométrico tridimensional los datos de la red informática de GNMT, los investigadores encontraron que el sistema agrupaba las oraciones de los distintos idiomas según un criterio semántico, en lugar de memorizar las ideas “frase por frase”.
La evidencia apuntaba a que GNMT desarrollaba la forma elemental de algo que podría considerarse como una “lengua intermedia” interna.