Boethius Translations

Violeta Demonte es catedrática emérita de Lengua Española en la Universidad Autónoma de Madrid y académica correspondiente de la Real Academia Española. Sus áreas de especialización son la lingüística teórica y la gramática descriptiva. Creó el grupo de Lingüística y Ciencia Cognitiva en el CSIC. Ha recibido, entre otras distinciones, el Premio Nacional de Investigación Ramón Menéndez Pidal en Humanidades.

***

La Agencia Digital de las Naciones Unidas está trabajando en una propuesta para crear una “marca de agua” que identifique los textos y materiales multimedia generados por IA. ¿Crees que es una propuesta viable?

VD– Varias de las grandes empresas tecnológicas, en especial las que trabajan con ‘grandes modelos de lenguaje’ (Large Language Models) como Chat GPT, y también muchos estados y grandes organizaciones, se han planteado la necesidad de desarrollar tecnologías que doten de una mayor seguridad y confiabilidad a los entornos donde la inteligencia artificial [IA] desempeña un papel central. Una de las ideas en la que se trabaja desde hace tiempo es la de diseñar técnicas que hagan que los documentos generados por IA tengan ‘marcas de agua’. Usando estas marcas se podría identificar no solo la condición sino también el origen del contenido que se está generando. No es fácil resumir la tecnología para la inserción de marcas de agua en los textos, imágenes y material audiovisual obtenidos a través de IA. Simplificando mucho: las marcas de agua se crean durante el proceso de entrenamiento de los datos y salen de algoritmos que enseñan a los modelos a ‘insertarse’ una determinada marca.

Idealmente, es una técnica muy interesante y potente pues podría servir, entre muchas otras cosas, para identificar noticias falsas o distorsionadas, para detectar casos en que se infringen derechos de autor, o para autenticar contenidos. Asimismo, estos mecanismos, debidamente utilizados, permitirían a los estados regular con mayores garantías la implementación y el uso de productos generados por IA. En Estados Unidos, la Unión Europea y China ya existe legislación que  exige facilitar la detección y el origen de los contenidos generados. (V. el Briefing del European Parliament Research Service de 23 de diciembre de 2023: “Generative AI and watermarking”).

¿Son viables estas técnicas y estas legislaciones? Por el momento tienen algunos problemas importantes. Para empezar, existen ya tecnologías ideadas para quitar o modificar las marcas de aguas, técnicas que pueden usarse justificada o injustificadamente. Asimismo, las marcas son diferentes según los proveedores y por lo tanto no se distinguen todas con los mismos procedimientos. Su inserción parece que puede introducir sesgos en los contenidos que se están generando. También producen a veces falsos positivos. Todos estos pueden considerarse problemas técnicos, que muy probablemente será posible resolver dada la eficacia de los creadores de técnicas para la inteligencia artificial. Pero su viabilidad y eficacia no estará garantizada, y por lo tanto no serán verdaderamente viables, mientras no haya un consenso cívico fuerte entre las tecnológicas, los distribuidores y los usuarios que los mueva a querer utilizar la IA para el bien de todos, con garantías de confiabilidad y veracidad. Lamentablemente, cuando un instrumento se puede utilizar tanto recta como torcidamente, lo primero es convencer a los humanos de que el uso perverso no es aceptable. Y a la vez adoptar medidas que restrinjan en lo posible el uso torticero. Un empleo extendido de las marcas de agua en el campo de la traducción automática sería muy importante para identificar plagios, errores de especialidad, o sustitución desaconsejable de los expertos por medios que ofrecen menos garantías.

–¿Crees que la lingüística puede contribuir de algún modo a definir unos estándares éticos y legales para la traducción automática?

VD– Sin duda debe contribuir. Pero recordemos antes el contexto general. Los juristas se están planteando las implicaciones legales de la IA y su productos (textos, obras pictóricas, videos) y se hacen preguntas como ¿quién es el propietario intelectual de una obra generada por IA o por traducción automática?, ¿cómo se infringen los derechos de autor cuando se generan textos por IA? o ¿deben reconocerse los derechos de los autores cuyos textos se usan para entrenar los algoritmos de los modelos grandes de lenguaje, de los algoritmos de traducción automática [TA]?

En cuanto a los derechos de autor, aunque no sea yo para nada especialista en una materia sumamente compleja, la respuesta a la primera pregunta que antes formulaba es doble: hay quienes sostienen que habría que reconocer la autoría de los textos traducidos por TA, muchos creen que la autoría es solo atribuible a los seres humanos puesto que la creación de textos requiere subjetividad y agentividad propiedades que no poseen las máquinas. Así las cosas, los modelos que generan lenguaje no pueden tener derechos de autor. Así las cosas también, esta visión implica que si un modelo de traducción, por ejemplo, produce un texto del que (¡vaya causalidad!) alguien tiene la propiedad intelectual, la penalización de esa infracción debe recaer sobre la persona que generó el contenido no sobre la empresa que concibió un modelo capaz de producir textos protegidos por derechos de propiedad intelectual.

Parece que las máquinas (y sus poseedores) siempre se salvan. Qué duda cabe de que todo esto debe ser materia de intenso examen jurídico.

Para centrarme en vuestra pregunta: por supuesto, pienso que la lingüística y la traductología tienen mucho que aportar a la tarea de establecer esos estándares legales. Los traductores especializados poseen la formación lingüística necesaria para descubrir las incorrecciones de diverso tipo que puedan derivarse de las traducciones de textos jurídicos (o médicos, o administrativos). Pero esto solo no basta, los protocolos que se establezcan en tribunales o en la administración para aceptar traducciones de textos con implicaciones legales deberían establecer amplios ‘requisitos de adecuación y de estilo’ que ilustren las incorrecciones posibles que puedan encontrarse y le garanticen al usuario que el documento que el tribunal o la oficina en cuestión reciba sea completamente legible y se corresponda adecuadamente con el documento original

En lo que concierne a los estándares éticos, es un problema de los estados garantizar que el empleo de estas herramientas sea compatible con las normas de corrección, veracidad, ‘deber ser’ o conducta apropiada -las normas éticas- que deben regir la conducta y las acciones humanas. En los dos casos los traductores y las ciencias del lenguaje pueden ayudar a establecer estándares si definen e ilustran adecuadamente los sesgos lingüísticos, la falsedad deliberada o la mentira, entre otras muchas cuestiones. En mi opinión, estamos aún lejos de haberlos establecido.

En lo que se refiere al futuro a medio y largo plazo de la traducción, ¿crees que la profesión de traductor acabará convirtiéndose en una forma de edición – que los traductores acabarán siendo posteditores de las traducciones automáticas (en una medida mucho mayor de lo que ya lo están siendo)?

VD– Como intenté mostrar en mi conferencia de Fundación Telefónica de septiembre de este año, la traducción automática, como todo lo que sale de alguna de las formas de la inteligencia artificial generativa, puede dar varios tipos de resultados: muy aceptables, relativamente defectuosos (las alucinaciones, los errores en el empleo de determinadas acepciones de un vocablo, los problemas de los conectores discursivos son persistentes en las mejores TA), muy defectuosos y simplemente horribles. Hay expertos en traducción que sostienen que, pese a esto, el movimiento es imparable pues las TA tienen una fluidez y coherencia que solo podrá ir mejorando, y que la sustitución llegará, tarde o temprano.

Yo no estoy tan segura, creo que depende del tipo de traducción del que hablemos y, por supuesto, de la capacidad que tengan los ingenieros y técnicos de la IA de resolver los muchos aspectos de esta tecnología que tienen que ver con la creatividad, con la precisión y con el dominio sofisticado de recursos lingüísticos como la ironía, la metaforización, las expresiones idiomáticas, el ritmo, las tonalidades, la expresión de las emociones, la capacidad de resonar en el usuario,… en los que por ahora las traducciones automáticas no salen muy airosas. Los ´métodos de evaluación´ de los resultados de los distintos tipos de traducción automática basada en redes neuronales (BLEU, por ejemplo), cuantifican con números muy distintos la calidad de las traducciones automáticas de un texto que podríamos llamar estándar o normal (una carta de solicitud de empleo, el resumen de una conferencia, un texto administrativo convencional donde se emplee una terminología de conocimiento extendido) – generalmente escasamente defectuosas– de las traducciones de textos de áreas muy especializadas (en la pregunta anterior me refería a los textos legales), y no digamos de las traducciones de textos literarios donde se puede encontrar un porcentaje de errores del 80%.

En todo caso, no nos engañemos, muchos traductores son ya posteditores, eso es un hecho. La traducción automática es muy facilitadora y rápida y por eso interesa a las grandes empresas y a los grandes organismos internacionales. Como recordaba en la conferencia a la que antes aludí, la Dirección General de Traducción de la Comisión Europea tiene actualmente (Google, agosto de 2024) un equipo de 1.145 personas: 660 traductores, 235 asistentes de traducción y 235 de personal de apoyo. En 2020 eran 2000. Es decir, ha habido una reducción del equipo del 40%. También hay que recordar que las buenas editoriales siguen contratando traductores humanos cuyos nombres aparecen en los textos publicados y, en el terreno de la traducción literaria, grandes autores contemporáneos siguen traduciendo a los clásicos. Juan Luis Vázquez acaba de traducir El corazón de las tinieblas de Joseph Conrad como, años ha, Borges o Cortázar tradujeron, respectivamente, a Virginia Woolf y a Edgar A. Poe. Veremos.

–De ser así ¿cómo consideras que esto afectará a los aspectos económicos de la traducción? ¿Crees que la postedición podría convertirse en un perfil tecnológico además de humanístico, o estamos abocados a la degradación laboral?

VD– No sé cómo será la situación ahora. Hace décadas hice algunas traducciones de libros de filosofía y de lingüística para buenas editoriales españolas, y lo cierto es que no había correlación entre el tiempo y el trabajo que me llevaba la tarea y las remuneraciones que recibía. En justicia, un rol diferenciado del traductor (que sigue siendo traductor cuando edita o corrige) no debería suscitar diferencia salarial. En principio, el trabajo especializado de corrección gramatical, semántica, conceptual y de adaptación estilística es muy técnico y complejo y requiere acaso del traductor mayor esfuerzo que la traducción sin más intermediarios que el propio autor de lo que se traduce.

Debería ser una profesión muy valorada tanto social como profesionalmente. Y por supuesto debería tener un perfil profesional igual al del traductor. Tanto la traducción como la edición/corrección especializada requieren formación científica adecuada en el contenido del texto, gran conocimiento tanto de la lengua matriz como de la lengua meta, buenos materiales para hacer las consultas debidas, extrema concentración, voluntad de estilo, un buen bagaje cultural, … y seguramente me olvido de muchas cosas. La diferencia es que el corrector/editor tiene más trabajo porque a todo eso debe unir la no siempre grata tarea de someterse al examen de los posibles defectos del texto que se le asigne. Dependiendo de la materia, la tarea puede ser más o menos sencilla.