Presentación
La Línea de Economía Digital del Lenguaje e Inteligencia Artificial del Plan de Transformación tiene entre sus objetivos la implantación de títulos oficiales de grado y posgrado. Dentro de los títulos de posgrado, el Máster de Procesamiento del Lenguaje e Inteligencia Artificial se implanta como Máster Oficial en el curso 2024-2025.
Tras dos ediciones del título propio, se inician unos estudios que, además de al ejercicio profesional, conducen a los estudios de doctorado. El pasado mes de marzo tuvieron lugar las Jornadas de Empleabilidad en Inteligencia Artificial Lingüística, centradas en las salidas profesionales del procesamiento del lenguaje y la inteligencia artificial.
Con la implantación inminente del título de máster oficial, que llevará a algunos egresados a la carrera investigadora y docente, parece conveniente ofrecer un espacio de reflexión acerca de aspectos como la financiación de la investigación en humanidades; la lingüística computacional y el procesamiento del lenguaje en la era de la inteligencia artificial; la necesaria actualización de los planes de estudio de grado y máster como resultado de la generalización de la inteligencia artificial generativa; la innovación y buenas prácticas docentes en estudios de procesamiento del lenguaje; la transferencia de resultados de investigación de proyectos de humanidades a empresas tecnológicas; y las experiencias interdisciplinares humanidades-computación.
Estas jornadas reúnen a investigadores e investigadoras con amplia experiencia en proyectos y transferencia de resultados, así como en la docencia relacionada. El público principal de las Jornadas es el estudiantado del Máster de Procesamiento del Lenguaje e Inteligencia Artificial, aunque el evento será retransmitido por el canal de la Universidad de La Rioja y todas las personas interesadas están invitadas a seguirlo.
Programa
Martes, 12 de diciembre
9.00 horas
Sesión inaugural
D. Juan Carlos Ayala Calvo
Rector de la Universidad de La Rioja
Conferencia inaugural: Procesamiento del lenguaje con inteligencia artificial en la Universidad de La Rioja
Javier Martín Arista
Director de Economía Digital del Lenguaje
Universidad de La Rioja
10.00 horas
Replanteando el etiquetado descriptivo en tareas de PLN
Joseba Abaitua Odriozola
Profesor Titular de Lenguas Modernas y Estudios Vascos
Universidad de Deusto
Joseba Abaitua Odriozola es doctor en Lingüística Computacional por la Universidad de Manchester. Ha participado en diversos proyectos financiados por organismos públicos, en colaboración con empresas privadas y otros grupos de investigación universitarios. Ha presentado los resultados en numerosos congresos nacionales e internacionales (SEPLN, JOTRI, ACL, COLING, AMTA, ASLIB, CLIP) y ha sido miembro de los comités científicos en varias ocasiones.
Participó en el desarrollo de sistemas de traducción automática basados en reglas y corpora bilingües (japonés-español con Fujitsu y español-euskera con AutomaticTrans y Lucy Software). Ha asesorado a empresas en edición XML (Francis Lefebre). Ha sido contratado por la DGXIII de la Comisión Europea como evaluador de proyectos para el Cuarto Programa Marco (Investigación en Lenguas e Ingeniería), para el quinto (IST) y para eContent.También actúa de evaluador para ANEP y CICYT.
Durante bastantes años fui un firme defensor de la iniciativa TEI y de las múltiples ventajas de etiquetado descriptivo para la gestión de contenidos en grandes corpus textuales. Era consciente de las limitaciones del procesamiento del lenguaje natural y trataba de mejorar la eficacia de los sistemas mediante el uso de marcas y metadatos. De esa manera, las tareas se dividían en dos fases: en la primera los textos se etiquetaban de manera semiautomática, o supervisada; en la segunda se procesaban aprovechando la información contenida en los metadatos.
En el caso de la traducción automática también fui un convencido defensor de los corpus paralelos, segmentados y alineados mediante etiquetado descriptivo. Pero dos constataciones me hicieron cambiar de opinión. La primera, la excesiva laboriosidad de la aplicación de las directrices TEI, frente a otros sistemas más sencillos y eficaces en tareas como el reconocimiento de entidades, la generación de índices, la catalogación, la extracción de información, o las memorias de traducción. La segunda y definitiva es que la mejora de los sistemas de procesamiento de lenguaje natural entrenados mediante algoritmos de aprendizaje automático hacen innecesario el análisis simbólico y el etiquetado supervisado.
La ponencia abordará estas cuestiones desde varias décadas de experiencia en la investigación y en la docencia.
10.45 horas
Transferencia de resultados de investigación de proyectos de humanidades a empresas tecnológicas
José Gabriel de Amores Carredano
Profesor Titular de Filología Inglesa
Universidad de Sevilla
La trayectoria profesional y académica del Dr. José Gabriel Amores Carredano combina una sólida producción académica e investigadora con amplia experiencia en emprendimiento y en gestión empresarial. Entre otros, destacan los siguientes logros: Impulsó el área de investigación en lingüística computacional en el Departamento de Lengua Inglesa de la Universidad de Sevilla como investigador principal del grupo de investigación Julietta. Cuenta con un alto índice de éxito en la obtención de proyectos de investigación en convocatorias competitivas, tanto a nivel nacional como europeo.
Es autor de numerosas publicaciones nacionales e internacionales y de varias solicitudes de patentes de ámbito internacional en el campo del procesamiento del lenguaje natural. Fue cofundador en 2003 de la empresa Indisys, spin-off de la Universidad de Sevilla, posteriormente adquirida por la multinacional Intel en junio de 2013. Entre 2013 y 2018 5 ocupó los puestos de `software engineering manager' y 'principal engineer' en Intel Corporation Iberica. En 2018 se reincorporó a la Universidad de Sevilla como Profesor Titular y es actualmente socio de varias start-up, alguna de ellas en el ámbito del Procesamiento del Lenguaje Natural.
El grupo de investigación Julietta pertenece al área de Lengua Inglesa, dentro de la Facultad de Filología de la Universidad de Sevilla. Sus áreas de investigación se centran en la lingüística computacional, sistemas de diálogo multimodal, lingüística teórica, semántica, fonética y comunicación no verbal. Julietta ha sido financiado por numerosos proyectos del plan nacional de I+D, así como proyectos europeos y de ámbito autonómico.
Desde sus inicios, el grupo ha prestado especial atención a la transferencia de resultados de investigación. Los primeros contratos de transferencia de resultados de investigación tuvieron lugar con la empresa Telefónica I+D en el año 1993. Tras la participación del grupo en tres proyectos europeos (Siridus, DHome y Talk), se vio que la tecnología desarrollada en el ámbito de la gestión de diálogo estaba madura para su industrialización. En 2003 se creó la spin-off Indisys (Intelligent Dialogue Systems), mediante un contrato de cesión de derechos de comercialización por parte de la Universidad de Sevilla.
Tras conseguir financiación y desarrollar su actividad comercial tanto en España como en otros países, la empresa fue adquirida en su totalidad por la multinacional Intel en 2013. En la actualidad, el grupo participa en un ambicioso proyecto de investigación en robótica social en el ámbito de la oncología pediátrica, en colaboración con investigadores de la Universidad Pablo de Olavide, la Universidad de Indiana (Bloomington, USA), la Asociación AEetc para el estudio de los efectos del cáncer, la unidad de oncología pediátrica del Hospital Virgen del Rocío de Sevilla y la empresa 4i (Intelligent Insights). El proyecto está financiado por Honda Research Institute de Japón.
11.30 horas
Café
12.00 horas
Recursos lingüísticos para entrenar modelos del lenguaje basados en Transformers: tamaño y características
Núria Bel
Catedrática de Tecnologías del Lenguaje
Universidad Pompeu Fabra
Núria Bel es catedrática de Tecnologías del Lenguaje en el Departamento de Traducción y Ciencias del Lenguaje de la Universidad Pompeu Fabra, Barcelona. Sus líneas de investigación están relacionadas con el desarrollo de recursos lingüísticos para el procesamiento del lenguaje natural con sistemas de aprendizaje automático.
Actualmente es investigadora principal del proyecto LUTEST: Language Understanding Testsets (PID2019-104512GB-I00, Ministerio de Ciencia e Innovación).
Anteriormente ha participado en numerosos proyectos, la mayoría de ámbito europeo, y publicado más de un centenar de artículos en revistas y congresos de alto impacto: Computational Linguistics, Neural Networks, Annual Meeting of the Association for Computational Linguistics, International Conference on Language Resources and Evaluation, Empirical Methods for Natural Language Processing, entre otros. Ha sido miembro de la Junta Directiva de la Asociación Europea de Recursos Lingüísticos (ELRA) desde 2017 a 2023 y ha contribuido a la organización de diferentes eventos, el más reciente como co-presidenta del Comité de Programa del COLING 2020.
Las impresionantes capacidades de la tecnología de redes neuronales, y en particular de los modelos del lenguaje basados en la arquitectura de Transformers, nos han suscitado numerosas preguntas, y entre ellas dos específicas que son las líneas de investigación del proyecto LUTEST: Language Understanding Testsets (PID2019-104512GB-I00, Ministerio de Ciencia e Innovación), que estamos a punto de terminar: por qué necesitan inmensas cantidades de datos textuales y son estas necesidades las mismas para todas las lenguas.
Responder a estas preguntas es importante, por un lado, para establecer en qué medida será posible que todas las lenguas, incluidas las de escasos recursos, puedan ser procesadas con la misma calidad y para calibrar la fiabilidad de estos sistemas que, por su complejidad, no permiten una observación directa del procesamiento que realizan. Por otro lado, son líneas de investigación clásicas en lingüística computacional que como ámbito se ha preguntado cómo es la máquina que puede reconocer todas y solamente las frases de una lengua, y de cualquier lengua.
En esta ponencia presentaremos los resultados de los experimentos realizados en el proyecto para responder a estas preguntas: ¿hay una cantidad mínima de datos para obtener una calidad útil en las tareas clásicas de procesamiento del lenguaje natural (etiquetado morfosintáctico, reconocimiento de nombres de entidades, etc.) y es la misma cantidad para diferentes tipos de lenguas? ¿se puede reducir la necesidad de datos textuales de estos modelos pre-procesando los datos? ¿qué características de los datos podrían permitir entrenar con menos datos? Por último, presentaremos el Corpus de aceptabilidad lingüística para español ESCOLA, un corpus de pruebas desarrollado para contribuir a la evaluación de las capacidades lingüísticas de los modelos de lenguaje para español.
12.45 horas
El uso de conocimiento lingüístico para el reconocimiento del origen automático de textos en español
Ana M.ª Fernández-Pampillón Cesteros
Profesora Titular de Lingüística General
Universidad Complutense de Madrid
Ana M.ª Fernández-Pampillón Cesteros es licenciada en Ciencias Físicas (especialidad Cálculo automático) y Doctora en Lingüística Computacional por la Universidad Complutense de Madrid (UCM). Es profesora titular de universidad en el Área de Lingüística General de la Facultad de Filología. Actualmente coordina este Área de Lingüística General, así como el Grado de Lingüística y Lenguas Aplicadas y forma parte de la Comisión académica del Máster en Lingüística y Tecnologías y del Doctorado en Lingüística Teórica y Aplicada.
Como investigadora co-dirige el proyecto ROBOT-TALK (PID2022-140897OB-I00). Sus líneas de investigación se enmarcan en la Lingüística computacional y la Tecnología Educativa. Ha trabajado en lexicografía computacional y su aplicación a la Tecnología Educativa. Ha participado en la construcción del Campus virtual de la UCM y en la construcción de un software para la creación de repositorios digitales (OdA).
Ha desarrollado un modelo de calidad de materiales educativos digitales y ha liderado el grupo de trabajo de UNE que ha elaborado la norma 71362 de calidad de materiales educativos digitales. Recientemente ha trabajado en la aplicación de modelos neurocorticales y modelos cognitivos para la representación semántica computacional del léxico y del texto. Actualmente, su investigación se centra en la identificación de textos generados automáticamente. Forma parte del grupo de investigación UCM " Ingeniería de Lenguajes, Software y Aplicaciones (ILSA)".
En la ponencia se presentará el estado actual del problema de identificación de textos generados automáticamente así como la aproximación lingüística del proyecto de investigación ROBOT-TALK (PID2022-140897OB-I00) con los primeros resultados obtenidos con textos en español. La hipótesis es que los lingüistas son capaces de extraer los rasgos lingüísticos distintivos, si existen, de los textos generados automáticamente.
Estos rasgos son clave para entender las capacidades lingüísticas de los modelos del lenguaje y, además, para poder identificar la autoría automática o humana de los textos. La identificación robótica de textos es de gran importancia en aplicaciones de ciberseguridad, educación y el derecho de los ciudadanos a recibir información transparente y veraz, entre otras.
Sin embargo, es un problema no resuelto: se ha comprobado que no siempre los lingüistas son capaces de distinguir la autoría automática, ni tampoco los clasificadores automáticos basados en los grandes modelos del lenguaje ofrecen, siempre, resultados suficientemente fiables. En este contexto, en el proyecto ROBOT-TALK los primeros resultados parecen indicar que sí es posible, utilizando conocimiento lingüístico, identificar el origen automático de los textos, al menos, mejor que el mejor clasificador actual para el español, el modelo RoBERTa. Parece, entonces, que merce la pena continuar estudiando los rasgos lingüísticos que permiten la identificación de textos generados automáticamente.
Miércoles, 13 de diciembre
9.00 horas
LLI-UAM (1988-2023): 35 años de investigación, docencia y transferencia en Lingüística Computacional
Antonio Moreno Sandoval
Catedrático de Lingüística
Universidad Autónoma de Madrid
Antonio Moreno Sandoval es catedrático de Lingüística, Director del Laboratorio de Lingüística Informática de la UAM y Director de la Cátedra UAM-IIC de Lingüística Computacional. Fue becario postdoctoral Fulbright en el Departamento de Informática de la Universidad de Nueva York (1991-1992) y becario postdoctoral del DAAD en la Universidad de Augsburgo (1998). Su formación en Lingüística Computacional comenzó como ayudante de investigación en el Proyecto Eurotra de Traducción Automática (FP-2 de la UE) y luego en el Centro Científico de IBM en Madrid (1989-1990). Fue el investigador principal del equipo español en el proyecto C-ORAL-ROM (FP-5 de la UE).
Desde 2010 es investigador senior en el Instituto de Ingeniería del Conocimiento (IIC-UAM) dentro del grupo de Business & Language Analytics. Desde 2018 es también Director de la Cátedra UAM-IIC de Lingüística Computacional. Moreno-Sandoval ha dirigido 14 tesis hasta la fecha. Es autor o coautor de 6 libros, entre ellos Lingüística Computacional (1998), Gramáticas de unificación y rasgos (2001), Lenguas y computación (2019), y Financial Narrative Processing in Spanish (2021), y de más de 100 comunicaciones y artículos científicos. Moreno-Sandoval ha dirigido como IP 1 proyecto europeo, 7 proyectos nacionales, 2 proyectos regionales, y 15 contratos de transferencia de I+D.
El Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (LLI-UAM) tuvo su origen en 1988, cuando surgió a partir del grupo que participó en el proyecto europeo EUROTRA de traducción automática. Desde aquel momento, los miembros del laboratorio se han involucrado en numerosas investigaciones en colaboración con diversos grupos y empresas a nivel nacional e internacional. Algunas de estas colaboraciones incluyen a IBM, Quinto Centenario, NYU, Lancaster, Ausgburgo, RAE, Daedalus, Florencia, El Cairo, Tokio-TUFS, Pekín-BISU y BFSU, UC3M, UNED, CSIC e IIC-UAM, entre otros.
En esta ponencia, se presentará un recorrido histórico que abarca las tres décadas y media de la vida del LLI-UAM, enfocado en la evolución de la disciplina de la Lingüística Computacional en cuanto a métodos, tareas y creación de recursos lingüísticos. Además, se contextualizará la contribución del Laboratorio en la producción científica a nivel nacional e internacional, ya que la mayoría de sus investigadores han continuado sus trabajos en universidades y empresas dedicadas a la Inteligencia Artificial.
Acompañaremos también la presentación con la experiencia docente proporcionada por el Laboratorio (en concreto, cursos de grado y postgrado) y la formación de investigadores. La internacionalización de la investigación ha sido una característica distintiva del LLI, que ha recibido visitantes de países como Egipto, Japón, China, India, Alemania e Italia.
La comunicación concluirá con un análisis de las relaciones de transferencia de conocimiento con el sector industrial. Desde sus inicios, el LLI ha mantenido una colaboración fluida con empresas tecnológicas como IBM, Daedalus, Sigma, Telefónica e Instituto de Ingeniería del Conocimiento, tanto en proyectos conjuntos como en el destino de sus integrantes en estas organizaciones.
9.45 horas
¿Es posible que el Cervantes del siglo XXI sea un cerebro artificial?
Julio Antonio Gonzalo Arroyo
Catedrático de Lenguajes y Sistemas Informáticos
UNED
Julio Antonio Gonzalo Arroyo es catedrático del área de Lenguajes y Sistemas Informáticos, vicerrector adjunto de investigación y transferencia de la UNED, y director del centro de investigación en Procesamiento del Lenguaje Natural y Recuperación de esta universidad.
En la actualidad, sus intereses de investigación se centran en las metodologías de evaluación de sistemas de Inteligencia Artificial (trabajo por el que recibió un Google Faculty Research Award), en la detección y caracterización automática de contenidos tóxicos (las técnicas de propaganda en la difusión de narrativas estratégicas geopolíticas y el machismo en redes sociales) y en el estudio de los procesos creativos en relación con las capacidades de la Inteligencia Artificial generativa.
La investigación en Inteligencia Artificial ha entrado en una etapa de aceleración a la que asistimos todos con asombro, incluyendo los propios investigadores que trabajan en ella. En las áreas de visión artificial y lenguaje, uno de los aspectos más sorprendentes es la facilidad con que los cerebros artificiales abordan tareas en las que la creatividad es un ingrediente esencial.
En la charla revisaremos los principios con los que están diseñadas estas inteligencias artificiales y discutiremos su potencial creativo y sus limitaciones intrínsecas, especialmente en el terreno de la escritura creativa. Haremos especial hincapié en una serie de experimentos llevados a cabo en la UNED en los que comparamos los textos creativos escritos por máquinas y humanos respecto a cinco dimensiones de calidad distintas. En esos experimentos, las máquinas obtuvieron mejor puntuación en todos los aspectos de calidad excepto en creatividad, y todas las diferencias resultaron ser estadísticamente significativas.
10.30 horas
Las Humanidades Digitales en la Sociolingüística Histórica
Juan Manuel Hernández Campoy
Catedrático de Filología Inglesa
Universidad de Murcia
Juan Manuel Hernández Campoy es catedrático de Sociolingüística en la Universidad de Murcia, donde imparte docencia e investiga sobre sociolingüística, dialectología, historia de la lengua inglesa y metodología de investigación sociolingüística, habiendo publicado libros como Sociolinguistic Styles (Wiley-Blackwell; 2016), Style-Shifting in Public (John Benjamins; con J.A. Cutillas-Espinosa, 2012), The Handbook of Historical Sociolinguistics (Wiley-Blackwell; con J.C. Conde-Silvestre, 2012), Diccionario de Sociolingüística (Gredos; con P. Trudgill, 2007), Metodología Sociolingüística (Comares; con M. Almeida, 2005), Geolingüística (EditUM; 1999), o Sociolingüística Británica (Octaedro; 1993), y numerosos artículos en revistas de referencia.
La Sociolingüística es una rama multidisciplinar del conocimiento lingüístico que se desarrolló a partir de la antropología, la etnografía, la sociología y la dialectología como herencia epistemológica natural, y confiriéndole un perfil eminentemente interdisciplinar teórica y metodológicamente. Pero, en tanto que paradigma, la Sociolingüística se encuentra en un proceso continuo de reformulación y redefinición en consonancia con la evolución de la epistemología, la filosofía social, y el desarrollo de nuevos métodos de campo, técnicas de recolección de datos y análisis cualitativos y cuantitativos, como la teoría de las tres olas sociolingüísticas ha demostrado.
En esta línea, la Sociolingüística Histórica, en particular, aplica supuestos teóricos y hallazgos de la investigación actual a la interpretación de datos del pasado, propiciando el estudio de la heterogeneidad y la vernacularidad en la historia de las lenguas mediante la reconstrucción de patrones de variación y cambio lingüísticos en comunidades cronológicamente remotas también desde la práctica de la interdisciplinariedad. Así, los nuevos métodos y fuentes en este campo han estado muy estrechamente vinculados a los desarrollos de las humanidades digitales y la lingüística computacional, con un aumento crucial en el número y uso de corpus lingüísticos electrónicos, junto con la ayuda de Lingüística de Corpus e Historia Social.
El presente trabajo nos ofrece una aproximación a los resultados obtenidos tras la integración de la Sociolingüística, Lingüística de Corpus Computacional e Historia Social desde la explotación de colecciones de documentos históricos a modo de fuente de datos lingüísticos para su análisis. Dicha integración está demostrando ser de gran utilidad para la reconstrucción del funcionamiento social y lingüístico de las lenguas en comunidad. La observación de las pautas de comportamiento sociolingüístico regulares del pasado remoto de las lenguas nos permite desarrollar patrones de uso extrapolables a los universales sociolingüísticos contemporáneos desarrollados tanto desde macro como micro-niveles de análisis.
11.15 horas
Café
11.45 horas
Métodos de lingüística cuantitativa para humanidades y variación de lengua
David Sánchez Martín
Catedrático de Física Atómica, Molecular y Nuclear
Universidad de las Islas Baleares
David Sánchez es doctor en Física (2002) y licenciado en Filología Hispánica (2014). Ha publicado más de cien artículos en revistas internacionales y participado como ponente en unos cincuenta congresos científicos. Ha realizado estancias de investigación en las Universidades de Indiana, Texas, Ginebra, California, Stanford y Zúrich. Catedrático en la Universidad de las Islas Baleares desde 2021, su campo de investigación actual comprende la variación y el cambio lingüísticos, los fenómenos estocásticos en el lenguaje y la descripción y modelización de lenguas en contacto empleando datos masivos.
Con el avance continuo de las tecnologías computacionales, se hace cada vez más accesible aproximarse a los fenómenos lingüísticos desde una perspectiva cuantitativa. La lingüística cuantitativa emplea métodos matemáticos y estadísticos para examinar frecuencias léxicas, estructuras sintácticas, dinámica lingüística y patrones de uso. Nuestro enfoque es interdisciplinario, integrando principios de lingüística de corpus, modelos matemáticos y algoritmos computacionales, con un énfasis especial en técnicas de agrupamiento y clasificación.
Un ejemplo reciente es la aplicación del análisis ordinal a un corpus histórico de obras literarias. Para ello, transformamos el texto en una secuencia de posiciones derivadas de la clasificación de palabras según su frecuencia. La distribución estadística de los patrones que emergen es sumamente interesante, ya que permite distinguir no solo entre idiomas, sino entre épocas históricas de una misma lengua e incluso entre autores contemporáneos de un periodo específico.
Esto tiene aplicaciones inmediatas en estilometría y atribución de autoría.
Otro campo en el que hemos trabajado es el de lenguas en contacto. Disponemos de un corpus que abarca varios siglos de español hablado en Mallorca. Los estudios estadísticos y computacionales realizados revelan que esta variedad del español se distingue de las peninsulares tanto por la influencia del catalán hablado en la isla como por tradiciones discursivas y ortográficas.
Por último, nuestro grupo de investigación se involucra activamente en la construcción de corpus a partir de datos extraídos de redes sociales. Se han llevado a cabo análisis de cientos de millones de tuits geolocalizados para caracterizar el español americano y el europeo, las variedades rural y urbana e incluso las regiones culturales definidas por los tópicos más recurrentes. De este modo, nuestros hallazgos y metodologías resultan de gran interés para un amplio espectro de ámbitos de conocimiento: lingüística, estudios literarios, geografía cultural, sistemas complejos y procesamiento de lenguaje natural.
12.30 horas
Sesión de discusión y conclusiones
Para quién
Especialmente dedicadas a los estudiantes y egresados del Máster de Procesamiento del Lenguaje e Inteligencia Artificial.
Está especialmente invitado el profesorado con docencia en los títulos de procesamiento del lenguaje, así como los participantes en los cursos de especialización de Economía digital del lenguaje.
Organiza
Economía Digital del Lenguaje
Javier Martín Arista
Ana Elvira Ojanguren López
Etiquetas
Categorías
- Dpto. Filologías Hispánica y Clásica, Dpto. Filologías Modernas, Economía Digital del Lenguaje, Facultad de Letras y de la Educación, Máster de Procesamiento del Lenguaje e Inteligencia Artificial, Máster de Procesamiento del Lenguaje y Aplicaciones de la Inteligencia Artificial a la Lingüística, Plan de Transformación, Portada
Noticias relacionadas
Rubén Leal Labrador gana el XII Concurso Científico-Literario de la Universidad de La Rioja
La UR abre el período de admisión en 16 másteres oficiales para el curso 2025-2026
Actividades relacionadas