Tucano 2 Cool: Better Open Source LLMs for Portuguese

El artículo presenta Tucano 2, una suite de modelos de lenguaje grandes de código abierto con parámetros entre 0.5 y 3.7 mil millones, que utiliza nuevos conjuntos de datos mejorados y recetas de entrenamiento optimizadas para lograr un rendimiento de vanguardia en tareas de lenguaje portugués, liberando todos sus artefactos para fomentar la reproducibilidad y el avance en la comunidad de PLN de habla portuguesa.

Nicholas Kluge Corrêa, Aniket Sen, Shiza Fatimah + 4 more2026-03-05🤖 cs.AI

Build, Judge, Optimize: A Blueprint for Continuous Improvement of Multi-Agent Consumer Assistants

Este artículo presenta un marco práctico para evaluar y optimizar asistentes de compras conversacionales multiagente en producción, introduciendo una rúbrica de evaluación multidimensional y dos estrategias de optimización de prompts (Sub-agent GEPA y MAMuT GEPA) validadas mediante un asistente de compras de alimentos a escala industrial.

Alejandro Breen Herrera, Aayush Sheth, Steven G. Xu + 5 more2026-03-05🤖 cs.AI

ByteFlow: Language Modeling through Adaptive Byte Compression without a Tokenizer

El artículo presenta ByteFlow Net, una arquitectura jerárquica que elimina los tokenizadores predefinidos al permitir que el modelo aprenda segmentaciones adaptativas de flujos de bytes mediante compresión, logrando así un rendimiento superior y una mayor adaptabilidad en comparación con los enfoques tradicionales basados en subpalabras.

Chunyuan Deng, Sanket Lokegaonkar, Colin Lockard + 3 more2026-03-05🤖 cs.LG

A Neural Topic Method Using a Large-Language-Model-in-the-Loop for Business Research

El artículo presenta LX Topic, un nuevo método de modelado de temas que integra un modelo de lenguaje grande en un bucle de retroalimentación para generar constructos lingüísticos latentes y proporciones de temas calibradas a nivel de documento, logrando una mayor calidad semántica y estabilidad que los enfoques existentes y estableciendo así una herramienta reproducible e interpretable para la investigación empresarial.

Stephan Ludwig, Peter J. Danaher, Xiaohao Yang2026-03-05💬 cs.CL

MOOSE-Star: Unlocking Tractable Training for Scientific Discovery by Breaking the Complexity Barrier

El artículo presenta MOOSE-Star, un marco unificado que supera la complejidad computacional inherente al entrenamiento directo de modelos de lenguaje para el descubrimiento científico mediante la descomposición de tareas, la búsqueda jerárquica guiada por motivación y la composición acotada, logrando así una reducción de la complejidad de exponencial a logarítmica y un escalado continuo en tiempo de prueba respaldado por el dataset TOMATO-Star.

Zonglin Yang, Lidong Bing2026-03-05🤖 cs.LG

T2S-Bench & Structure-of-Thought: Benchmarking and Prompting Comprehensive Text-to-Structure Reasoning

Este trabajo presenta "Structure-of-Thought" (SoT), una técnica de prompting que guía a los modelos para construir estructuras intermedias de texto, y T2S-Bench, el primer benchmark diseñado para evaluar y mejorar estas capacidades, demostrando que ambos enfoques mejoran significativamente el rendimiento de los modelos de lenguaje en tareas complejas de procesamiento de texto.

Qinsi Wang, Hancheng Ye, Jinhee Kim + 12 more2026-03-05🤖 cs.AI

Semantic Bridging Domains: Pseudo-Source as Test-Time Connector

Este artículo propone el método de Alineación Semántica Paso a Paso (SSA), que utiliza un dominio pseudo-fuente como puente semántico corregido mediante semánticas universales y estrategias de aprendizaje complementario, para adaptar modelos a dominios objetivo sin etiquetas cuando la fuente original es desconocida, logrando mejoras significativas en tareas como la segmentación semántica y la clasificación de imágenes.

Xizhong Yang, Huiming Wang, Ning Xu + 1 more2026-03-05💬 cs.CL