Multimodal Integration of Human-Like Attention in Visual Question Answering

Die Arbeit stellt MULAN vor, das erste Modell zur multimodalen Integration menschlicher Aufmerksamkeitsmuster in neuronale Netzwerke für das Visual Question Answering, das durch die Kombination von Bild- und Text-Salienzmodellen mit einem Transformer-basierten Ansatz sowohl einen neuen State-of-the-Art auf dem VQAv2-Datensatz erreicht als auch die Anzahl der trainierbaren Parameter im Vergleich zu früheren Arbeiten um etwa 80 % reduziert.

Ekta Sood, Fabian Kögel, Philipp Müller + 3 more2026-03-04💬 cs.CL

Reproduction and Replication of an Adversarial Stylometry Experiment

Diese Studie reproduziert und repliziert ein bahnbrechendes Experiment zur adversarialen Stylometrie, bestätigt zwar die ursprüngliche Schlussfolgerung, stellt jedoch aufgrund fehlender Kontrollgruppen die Wirksamkeit der untersuchten Verteidigungsmethoden in Frage und hebt insbesondere das Potenzial der automatischen Rundreise-Übersetzung als wirksames Mittel zur Umgehung von Autorenidentifizierung hervor.

Haining Wang, Patrick Juola, Allen Riddell2026-03-04💬 cs.CL

Predictive Authoring for Brazilian Portuguese Augmentative and Alternative Communication

Diese Studie stellt einen Ansatz zur Vorhersage von Piktogrammen für brasilianische portugiesische AAC-Systeme vor, bei dem das Modell BERTimbau mit einem speziell erstellten Korpus trainiert wird und zeigt, dass die Verwendung von Bildunterschriften die höchste Genauigkeit erzielt, während Synonyme zu einer geringeren Perplexität führen.

Jayr Pereira, Rodrigo Nogueira, Cleber Zanchettin + 1 more2026-03-04🤖 cs.AI

Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews

Die Studie schätzt mittels eines Maximum-Likelihood-Modells, dass zwischen 6,5 % und 16,9 % der Textmenge in den Peer-Reviews ausgewählter KI-Konferenzen nach dem Erscheinen von ChatGPT maßgeblich von großen Sprachmodellen beeinflusst oder generiert wurde, wobei die Nutzung insbesondere bei geringerer Vertrauenswürdigkeit, kurz vor Fristen und bei weniger engagierten Gutachtern häufiger auftritt.

Weixin Liang, Zachary Izzo, Yaohui Zhang + 9 more2026-03-04🤖 cs.AI

BA-LoRA: Bias-Alleviating Low-Rank Adaptation to Mitigate Catastrophic Inheritance in Large Language Models

Die Arbeit stellt BA-LoRA vor, eine bias-mindernde Low-Rank-Adaptierungsmethode, die durch gezielte Regularisierungen das Problem der katastrophalen Vererbung von Voreingenommenheit und Rauschen in großen Sprachmodellen effektiv bekämpft und dabei sowohl die Leistung als auch die Robustheit im Vergleich zu bestehenden Ansätzen verbessert.

Yupeng Chang, Yi Chang, Yuan Wu2026-03-04💬 cs.CL

Diverging Preferences: When do Annotators Disagree and do Models Know?

Diese Arbeit widerlegt die Annahme, dass Meinungsverschiedenheiten bei Annotatoren lediglich auf Rauschen zurückzuführen sind, indem sie eine Taxonomie von Diskrepanzursachen entwickelt und zeigt, wie sich dies negativ auf das Reward Modeling und die Evaluation von LLMs auswirkt, woraufhin neue Methoden zur Identifizierung und Minderung dieser divergierenden Präferenzen vorgestellt werden.

Michael JQ Zhang, Zhilin Wang, Jena D. Hwang + 6 more2026-03-04💬 cs.CL

Automated Coding of Communications in Collaborative Problem-solving Tasks Using ChatGPT

Die Studie zeigt, dass ChatGPT zur automatisierten Kodierung von Kommunikationsdaten in kollaborativen Problemlösungsaufgaben eingesetzt werden kann, wobei die Genauigkeit jedoch von der Modellversion, dem verwendeten Kodierungsrahmen und der Aufgabenart abhängt und nicht zwangsläufig durch neuere, auf Schlussfolgerungen spezialisierte Modelle verbessert wird.

Jiangang Hao, Wenju Cui, Patrick Kyllonen + 3 more2026-03-04💬 cs.CL