Traductor Automático Neuronal para el Par Aymara-Español: Un Enfoque para Pares de Bajos Recursos.
Integrantes:
- Corbera Terrones, Josiel
- Munive Mendoza, Alex
- Vera Reyes, Smith
Este trabajo desarrolla un traductor automático neuronal para el par aymara-español, enfocado en el contexto de lenguas con recursos limitados. Se construyó un corpus paralelo de 163,733 pares de oraciones a partir de textos bíblicos y literarios. Se implementaron y compararon dos arquitecturas Transformer: una estándar (6 capas encoder/decoder) y una asimétrica Deep Encoder-Shallow Decoder (12-2 capas). La arquitectura estándar logró el mejor desempeño, con puntuaciones BLEU de 28.95 para Aymara → Español y 13.37 para Español → Aymara. Los resultados evidencian una marcada asimetría en la calidad de traducción, atribuible a la complejidad morfológica del aymara, y establecen una línea base sólida para futuras investigaciones en traducción automática para lenguas indígenas.
Dataset:
El dataset procesado (alineado, limpio y dividido en train/valid/test) está disponible únicamente para fines de investigación académica a través de los siguientes repositorios: Código del proyecto:
https://github.com/wjosielct/aymara-spa ... ranslation
