ITLC at SemEval-2026 Task 11: Normalization and Deterministic Parsing for Formal Reasoning in LLMs

El equipo ITLC presenta un método novedoso que reduce los sesgos de contenido en el razonamiento de los modelos de lenguaje mediante la abstracción estructural y el análisis determinista, logrando un rendimiento destacado en la tarea multilingüe SemEval-2026 Task 11 sin necesidad de un ajuste fino complejo.

Wicaksono Leksono Muhamad, Joanito Agili Lopo, Tack Hwa Wong, Muhammad Ravi Shulthan Habibi, Samuel Cahyawijaya

Publicado 2026-03-04
📖 4 min de lectura☕ Lectura para el café

Each language version is independently generated for its own context, not a direct translation.

¡Hola! Imagina que los grandes modelos de lenguaje (como los que usan para chatear o escribir) son como niños genios que han leído millones de libros. Son increíbles, pero tienen un defecto: a veces, en lugar de pensar con lógica pura, se dejan llevar por lo que "sabe" que es verdad en el mundo real.

Este paper describe cómo un equipo de investigadores (ITLC) resolvió este problema para un concurso llamado SemEval-2026. Aquí te explico su solución con analogías sencillas:

1. El Problema: El "Niño Genio" que se deja engañar por la realidad

Imagina que le preguntas al niño genio:

  • Premisa 1: Todos los perros son animales.
  • Premisa 2: Ningún gato es un perro.
  • Conclusión: Por lo tanto, ningún gato es un animal.

Lógicamente, la conclusión es falsa (los gatos sí son animales). Pero si el niño genio sabe que "los gatos son animales", su cerebro se bloquea. Piensa: "¡Eso no puede ser verdad! Los gatos son animales, así que la conclusión debe ser cierta". Se deja llevar por su conocimiento del mundo (el "efecto del contenido") en lugar de seguir las reglas del juego de la lógica.

2. La Solución: Traducir todo a "Juego de Bloques"

El equipo de ITLC creó un método para que el niño genio deje de pensar en "perros" y "gatos" y empiece a pensar solo en bloques de colores.

Su proceso tiene tres pasos mágicos:

Paso A: La "Máquina de Traducción" (Normalización)

Antes de que el niño intente resolver el problema, pasan las frases por una máquina especial. Esta máquina hace dos cosas:

  1. Traduce al inglés (si el texto está en español, francés, etc.) para que todos hablen el mismo idioma.
  2. Cambia las palabras por letras.
    • En lugar de "perros", pone A.
    • En lugar de "gatos", pone B.
    • En lugar de "animales", pone C.

Así, el problema deja de ser sobre animales y se convierte en un rompecabezas abstracto:

  • Premisa 1: Todos los A son C.
  • Premisa 2: Ningún B es A.
  • Conclusión: ¿Ningún B es C?

Al quitar las palabras reales, el niño ya no puede usar su conocimiento del mundo para confundirse. Solo ve letras.

Paso B: El "Arquitecto Estricto" (Análisis Determinista)

Una vez que tienen las letras, no le preguntan al niño genio "¿qué opinas?". En su lugar, usan un arquitecto de reglas estrictas (un programa informático simple).

Este arquitecto tiene un manual de instrucciones que dice: "Si tienes la forma X y la forma Y, la respuesta SIEMPRE es Z". No hay opiniones, no hay "creo que sí", no hay "suena bien". Es como un código de barras: si encaja, es válido; si no, es inválido.

Paso C: El "Filtro de Distracciones"

A veces, el problema tiene frases de relleno que no sirven (distracciones). El sistema sabe exactamente qué piezas del rompecabezas son necesarias para construir la conclusión y descarta el resto, como un chef que solo usa los ingredientes exactos para una receta y tira el resto a la basura.

3. ¿Por qué funciona tan bien?

Imagina que estás jugando al ajedrez.

  • El modelo normal (LLM): Juega pensando en la historia de la batalla. "¡Los caballos blancos siempre ganan!". Si la lógica dice que pierden, pero la historia dice que ganan, se confunde.
  • El método de ITLC: Quita las piezas de madera (perros, gatos) y las pone sobre un tablero de coordenadas matemáticas (A, B, C). Ahora, el juego es puramente matemático. No importa si los caballos son blancos o negros; importa si la jugada sigue las reglas del tablero.

4. Los Resultados

En el concurso, este método:

  • Fue top 5 en todas las categorías.
  • Logró cero errores en lógica pura (cuando las reglas se siguen al pie de la letra).
  • Funcionó igual de bien en inglés, español, chino, etc., porque primero traducía todo a un "idioma de bloques" universal.

En resumen

El equipo descubrió que para que la Inteligencia Artificial piense con lógica pura, hay que desnudar el problema. Hay que quitarle la "carne" (las palabras reales que nos emocionan o confunden) y dejarle solo los "huesos" (la estructura lógica).

Es como si, para resolver un problema de matemáticas, en lugar de usar palabras, dibujáramos solo líneas y ángulos. Así, nadie puede engañarse pensando en lo que significan las palabras, y solo se puede ver si la figura encaja o no. ¡Y eso es exactamente lo que hicieron!