O novo Google Neural Machine Translation system (GNMT) tem-nos dado traduções mais inteligentes que nunca, mas para isso necessitando de "biliões" de exemplos de tradução num e noutro sentido, para conseguir fazer a tradução de forma satisfatória.
O problema disto é que, ao tentarem expandir o sistema de uma meia-dúzia de línguas para mais de 100, as combinações necessárias multiplicam-se exponencialmente, pois será necessário treinar o sistema com exemplo de cada uma das línguas traduzidas para todas as outras línguas, e vice-versa. Algo que levou os investigadores a experimentarem algo diferente: se o sistema aprendesse a traduzir entre inglês⇄japonês e inglês⇄coreano... seria ele capaz de traduzir japonês⇄coreano sem nunca ter sido treinado para isso?
E surpreendentemente... sim! O sistema foi capaz de traduzir directamente entre línguas que nunca tinha sido ensinado a traduzir (e sem a batota de fazer uma tradução intermédia para inglês).
Embora as traduções não tivessem uma qualidade equivalente às das línguas para as quais tinha sido treinado, produziu resultados que eram aceitáveis, e levanta muitas questões quanto ao que se estará a passar no interior do seu cérebro neuronal digital (onde, tal como acontece nos nossos cérebros, nem sempre é fácil descobrir o que se passa.)
Pelo que se pode perceber, o sistema terá desenvolvido uma forma de fazer associações sobre o significado das frases e não directamente as palavras em si. Pelo que... estaremos a dar os primeiros passos de, um destes dias, sermos surpreendidos por uma rede neuronal que se torne "consciente"? Esperemos que, se/quando isso acontecer, seja um pouco mais pacífica e amigável que a Skynet. :)
Publicado originalmente no AadM
0 comments:
Enviar um comentário