Traducción automática

De LinguaMedia
Saltar a navegación, buscar

Copiado de http://deli.deusto.es/wiki/index.php/Traducci%C3%B3n_autom%C3%A1tica

Este articulo abordará el estado de la tecnología de la traducción automática en 2006. Se expondrán los avances obtenidos en la última década y se analizará con algo de detalle la problemática de la traducción al euskara desde la TA. Existen dos proyectos principales relacionados con esta lengua: OpenTrad y ATS. Se compararán los enfoques utilizados, ventajas e inconvenientes, las limitaciones, las posibles formas de superarlas, problemas típicos, retos, etc. Se harán algunas reflexiones sobre otras tecnologías disponibles para automatizar la traducción e insertarla en el ciclo de vida de la documentación. El objetivo es definir estrategias de futuro viables y efectivas.

Contenido

Estado de la tecnología

Desde un punto de vista práctico no tiene mucho sentido hablar de la traducción automática de manera aislada, al menos desde hace una década. La traducción es un eslabón más en el ciclo de vida de la información y está cada vez más sujeta a cuestiones de organización del flujo de trabajo y de infraestructura.

Pero en este artículo se va a tocar la traducción automática desde el punto de vista científico.

Hay partes del lenguaje humano que son previsibles, pero hay muchas otras que no los son. Las que lo son se prestan muy bien al tratamiento computacional, las que no, se resisten algo más. En la traducción automática se dan los dos casos. Los sistemas basados en conocimiento lingüístico (diccionarios y gramáticas) dan cuenta de la parte previsible, o habría que decir mejor que hacen previsible aquella parte del lenguaje humano que son capaces de abarcar. Los sistemas basados en conocimiento estadístico ayudan a enfrentarse con los aspectos del lenguaje que se escapan a los diccionarios y a las gramáticas. De hecho, diccionarios y gramáticas pueden ampliar su cobertura con la ayuda de métodos estadísticos.

Se ha escrito mucho sobre la posibilidad de combinar ambos enfoques, pero en la práctica hay pocos sistemas que lo hagan. Desde la década de 1990 (Brown ref), los principales esfuerzos se han dedicado a la traducción estadística, pero a partir de 2005 se empiezan a conocer los límites de esta estrategia, volviendo a considerar la utilidad de la aportación de la lingüística.

Últimos avances en traducción estadística

In statistical machine translation there are two large bodies of sentence-aligned texts: one in the source language (Kannada) and the other in the target language(English), from which one attempts to create a statistical translation sys- tem. The process occurs in three steps, as out- lined by IBM: (Peter E Brown, 1993)

Create a language model for the source lan- guage using the CMU toolkit (Franz Och, 2000) ² Create a translation model by running it through Giza++ (Franz Och, 2000) ² Create an ISI decoder which translates from the target language to the source lan- guage by concatinating the above two re- sults

Knight 2004

Doddington, G. 2002b. Automatic Evaluation of Machine Translation Quality Using N-Gram Co- Occurrence Statistics. In Proceeding of the Second International Conference on Human Language Technology. San Diego, CA, pp. 138-145.

Papineni, K., S. Roukos, T. Ward, W.-J. Zhu. 2001. BLEU: A Method for Automatic Evaluation of Machine Translation. In Proceedings of the 40th Annual Meeting of ACL, Philadelphia, PA.

Hibridación de sistemas

Integración en sistemas de gestión de contenidos

Metodololgías de evaluación

La evaluación de todo sistema informático es clave, pero en el caso de la TA se ha llegado a decir que se han dedicado más páginas a hablar sobre ella que a la propia disciplina. Hasta hace apenas un lustro la evaluación se hacía por procedimientos manuales. La complejidad de la tarea se refleja en el modelo FEMTI, que culmina años de dispersión de criterios y metodologías.

Sin embargo, la evaluación manual tiene importantes inconvenientes: además de basarse en lo que finalmente de manera inevitable acaban siendo juicios subjetivos, es sobre todo lenta y costosa. Por ello, las evaluaciones manuales se suelen hacer sobre catas normalmente pequeñas y limitadas, con el riesgo de no ser representativas.

La situación cambió radicalmente tras la presentación de sistemas de evaluación por medios mecánicos, que por su velocidad y bajo coste han hecho que sean inmediatamente adoptadas.

A number of techniques have been proposed as a means of evaluating MT sentence quality, including using named entity translations as an indicator of overall quality (Heirschman et al, 2000), using decision trees to classify machine- vs. human-generated sentences (Corston- Oliver et al, 2002), and using existing manually evaluated translations to extrapolate the quality of new translations (Nieβen et al, 2002). The dominant approach, though, involves computing the closeness of a machine translated sentence to one and did not have access to context beyond the sentence. Average sentence length for the computer domain (computed on the English data) was 17.5; it was 21 for the Hansards data. Between 4 and 7 raters (predominately 6-7) were used for each evaluation, and results reported here are based on averaging the scores of all evaluators. Human evaluators bring with them individual differences; differences in intelligence, reading ability, professional training, etc. It is hoped that taking the mean of multiple evaluator scores reduces the effect of these differences. Rating translation quality is both tedious and repetitive. It is presumed that evaluators have different tolerances for these working conditions. There is evidence to suggest that evaluations are somewhat compromised by evaluator speed or inattention. In a small percentage of cases (for example, 1% in ES), individual evaluators gave different scores to identical sentences (presented side by side) or did not give the top score (4) to sentences that were identical to the reference. Though the average inter-rater agreement (correlation) is strong (EG: 0.763; QE: 0.830), individual raters occasionally display a low inter-rater correlation. The correlation coefficient for one EG rater correlation was 0.59. Correlations between human assessments and BLEU/NIST scores reported below include the average of all evaluators. Evaluators with low inter-rater agreement were not excluded. In addition to variations introduced by individual raters, the choice of corpus also impacts quality judgments, even within the same domain. In the computer domain, for instance, translations of manuals consistently received lower scores than product support translations, even when the system was held constant. 1.2 Automatic Evaluation IBM’s BLEU is a modified n-gram precision measure. It uses a weighted geometric average of n-gram matches between test sentences and reference sentences, which is modified to penalize overgeneration of correct word forms. Also included is a multiplicative brevity penalty that penalizes test sentences found to be shorter than the reference sentences; this is computed at the corpus level. The resulting score is a numeric metric intended to indicate the closeness of a set of test

BLEU

BLEU es un algoritmo para la evaluación automática de la calidad de la traducción que fue presentado ante la comunidad científica por IBM en 2001 (Papineni y otros, 2001) y que hoy en día se utiliza como métrica para evaluar rápidamente los resultados de la traducción automática en los campeonataos como el NIST MT, organizado por el Instituto Nacional de Normas y Tecnología de los EEUU (National Institute of Standards and Technology). Doddington (2002b) ofrece más detalles sobre la adaptación de BLEU a NIST MT.

El algoritmo aporta una medida de precisión basada en la comparación de gramáticas-n o tuplas. Se trata de una media geométrica ponderada de correspondencias entre gramáticas-n, modificada para penalizar tanto la sobregeneración de expresiones correctas, como la producción de oraciones menores a las de referencia. El resultado de la comparación da una métrica numérica que indica la cercanía de las oraciones de prueba respecto a las de referencia. BLEU aporta valores entre 0 y 1, siendo 1 la traducción perfecta y 0 incorrecta.

FEMTI

FEMTI (Framework for Machine Translation Evaluation in ISLE) es un marco de evaluación para la traducción automática promovido por ISLE. Se trata de un intento de organizar la gran variedad de métodos para evaluar los sistemas de traducción automática que existen y relacionarlos con su propósito y ámbito de aplicación. Con este fin, FEMTI está constituido por dos taxonomías o clasificaciones interrelacionadas. La primera clasificación permite a los evaluadores definir el ámbito al que se orienta el sistema de TA que se va a evaluar. Cada particularidad del sistema se asocia con un conjunto de características de calidad y métricas que se definen en una segunda clasificación.

Las dos clasificaciones

Utilidad

Problemática de la traducción al euskara

En los materiales que preparé para un curso de 2002 hacía mención a los factores que influyen en la traducción automática. Sorprende que de ello no se hable expresamente en los manuales de la disciplina (Arnold 1993)

Factores que influyen en la calidad

Problemas comunes y particulares

Hutchins 1992 y Arnold 1993 se ocupan de analizar los problemas más comunes de la traducción automática. Entre ellos se destacan tres:

Se trata de tres cuestiones muy complejas y que requieren mucho espacio para su tratamiento en profundidad. Se muestran a continuación algunos ejemplos.

Tecnologías aplicadas y recursos disponibles

Resultados obtenidos

Conclusiones

Históricamente, tal y como señala Tsujii, antes de que se culminara un paradigma de TA ya había surgido uno nuevo. En la actualidad la SMT ha llegado a su madurez y el único paradigma nuevo en el horizonte es la propuesta de hibridar estrategias, básicamente, SMT con LMT.

La cuestión es cómo hibridar SMT con LMT

  1. Siempre que exista una regla aplicable, probar primero con LMT. En caso contrario, considerar SMT.
  2. Revisar qué SMT puede aplicarse a un ejemplo del corpus bilingüe, y si se encuentra aplíquese en primer lugar. En caso contrario, descomponer el segmento en unidades a las que puedan aplicarse LMT.


Lista de requisitos recomendados en los que se debería basar un sistema de gestión de traducciones en un contexto como el de la traducción al euskera:

  1. El sistema deberá ser híbrido, de manera que combine la traducción basada en corpus (estadística, memoria de traducción, plantillas) con traducción basada en reglas (gramáticas, diccionarios, transferencia léxica y sintáctica, base de datos terminológicas y onomásticas, nomenclators, etc.)
    1. Provisionalmente denominaremos euLIH (euskararako Lankidetzan oinarritutako Itzultzaile Hibriodoa) al traductor.
  2. El corpus que se utilice para entrenar la traducción estadística y la memoria de traducción deberá ser lo más exhaustivo posible y dinámico, con actualizaciones constantes.
  3. Para ello se deberá crear un depósito (repositorio) distribuído de traducciones con agregador incorporado (OAI-PMH, RDF)
    1. Es necesario recoger y reutilizar tantos textos traducidos como sea posible (IVAP, GV, diputaciones, ayuntamientos, universidades, museos, medios de comunicación, editoriales, etc.).
    2. Depósito distribuído: la tecnología permite evitar la centralización los textos para que estos sean compartidos.
    3. Los textos pueden permanecer en la sede del autor/creador, permitiendo acceso parcial a los contenidos (segmentos TMX) y total a los metadatos (DC), que serán agregados y sindicados (OAI-PMH).
    4. Todas las traducciones son útiles para informar al sistema, aunque no todas tengan la misma validez (que debería determinar una comisión validadora, p. ej. IVAP para el ámbito administrativo) y los metadatos darán cuenta de cuestiones como autor, fecha, categoría, validación, licencia, etc.
  4. El depósito servirá varias funciones, que se agrupan en dos principales
    1. Referencia: catálogo de traducciones, estudio de variantes, cambios diacrónicos, validación y consulta, con actualización permanente.
    2. Entrenamiento: el sistema aprenderá de los segmentos almacenados y será sensible a los metadatos (particularmente a los juicios de validación), es decir, que dará rangos de probabilidad o fiabilidad más alta a las soluciones que provengan de segmentos con valoración más alta.
  5. El módulo de reglas deberá incorporar de manera ininterrumpida los segmentos nuevos que procedan del corpus y que puedan encajarse en las taxonomías léxicas o terminológicas que alimenten la transferencia léxica.
  6. Las reglas de transferencia sintáctica se aplicarán en última instancia, cuando no haya sido posible encontrar un segmento o plantilla en la memoria de traducción, una regla de transferencia léxica, o una correspondencia estadística.
  7. Licencia: recomendar licencias permisivas (copyleft, GPL) sobre el uso en la consulta del depósito y para el entrenamiento del traductor; sin menoscabar la propiedad sobre los textos o las traducciones (en su conjunto, no de los segmentados parciales) como objetos intelectuales.

Trabajo futuro

Repositorios abiertos

Grid de recursos

Referencia

Sistemas

Enlaces

Framework for the Evaluation of Machine Translation on ISLE (FEMTI). http://www.isi.edu/natural-language/mteval/


Hemeroteca

OpenTrad

Sustatu (2006-05-26) Opentrad: Gaztelaniatik euskararako itzulpen automatikoa sarean. http://www.sustatu.com/1148623516

Gotzon Egia eta beste (2006-05-26) Begira bezate. http://thread.gmane.org/gmane.culture.language.basque.itzul/27586

Ana Galarraga (2006-04-01) OpenTrad, Babelgo dorreari aurre egiten. http://www.zientzia.net/artikulua.asp?Artik_kod=11907

Otros


Referencias recientes

[Latest revision: November 2005]

Artículos relacionados

Traducción automática/Bibliografía

Herramientas personales
Espacios de nombres
Variantes
Acciones
Menú
Otros
Herramientas