AI Misuse in Education Is a Measurement Problem: Toward a Learning Visibility Framework

Der Artikel argumentiert, dass der Missbrauch von KI im Bildungswesen weniger ein Detektions- als vielmehr ein Messproblem darstellt, und schlägt das „Learning Visibility Framework" vor, das durch transparente Prozessnachweise und klare Regeln für den KI-Einsatz anstelle von Überwachungstools ethische Integrität und Vertrauen zwischen Lehrenden und Lernenden wiederherstellt.

Eduardo Davalos, Yike ZhangTue, 10 Ma💻 cs

Evaluating LLM-Based Grant Proposal Review via Structured Perturbations

Diese Studie untersucht die Eignung von LLMs für die Begutachtung von EPSRC-Förderanträgen durch strukturierte Perturbationen und stellt fest, dass zwar ein abschnittsbasierter Ansatz die beste Leistung zeigt, die Modelle jedoch eine hohe Variabilität aufweisen und sich zu stark auf Compliance-Checks statt auf eine ganzheitliche Bewertung konzentrieren.

William Thorne, Joseph James, Yang Wang, Chenghua Lin, Diana MaynardTue, 10 Ma💬 cs.CL

Shiksha Copilot: Teacher-AI Collaboration for Curating and Customizing Lesson Plans in Low-Resource Schools

Die Studie untersucht „Shiksha Copilot", ein KI-gestütztes Werkzeug zur Erstellung von Unterrichtsplänen in indischen Regierungsschulen, und zeigt, wie die Zusammenarbeit zwischen Lehrkräften und KI administrative Lasten reduziert und die pädagogische Praxis fördert, obwohl systemische Herausforderungen tiefgreifende Veränderungen begrenzen.

Deepak Varuvel Dennison, Bakhtawar Ahtisham, Kavyansh Chourasia, Nirmit Arora, Rahul Singh, Rene F. Kizilcec, Akshay Nambi, Tanuja Ganu, Aditya VashisthaThu, 12 Ma💻 cs

Recommender systems, representativeness, and online music: a psychosocial analysis of Italian listeners

Diese Studie analysiert Interviews mit italienischen Musiknutzern, um psychosoziale Perspektiven auf die Wirkung von Empfehlungssystemen zu beleuchten, und stellt fest, dass trotz routinierter Nutzung oft ein kritisches Verständnis der Algorithmen sowie ein Bewusstsein für geschlechtsspezifische Repräsentationsprobleme fehlt, was die Notwendigkeit einer stärkeren Integration psychosozialer Erkenntnisse in die Systemgestaltung unterstreicht.

Lorenzo Porcaro, Chiara MonaldiThu, 12 Ma💻 cs

Adaptive Engram Memory System for Indonesian Language Model: Generative AI Based on TOBA LM for Batak and Minang Language

Die Studie stellt TOBA-LM vor, ein dreisprachiges Sprachmodell auf GPT-2-Basis, das durch die Integration eines adaptiven Engramm-Gedächtnisses die Trainingszeit für indonesische, batakische und minangkabauische Sprachen im Vergleich zu herkömmlichen Transformer-Architekturen erheblich verkürzt und dabei die Rechenanforderungen für ressourcenlimitierte Regionalsprachen senkt.

Hokky Situngkir, Kevin Siringoringo, Andhika Bernard LumbantobingThu, 12 Ma💬 cs.CL

μ\muEd API: Towards A Shared API for EdTech Microservices

Die Arbeit stellt eine erste Spezifikation für eine plattformunabhängige Standard-API namens μ\muEd vor, die durch die Integration bestehender Funktionen an vier Institutionen ein interoperables Ökosystem aus EdTech-Mikrodiensten für Aufgaben wie Feedback, Bewertung und Chatbots ermöglicht, um das Lernen in verschiedenen Disziplinen zu automatisieren und zu bereichern.

Maximillan Sölch, Alexandra Neagu, Marcus Messer, Peter Johnson, Gerd Kortemeyer, Samuel S. H. Ng, Fun Siong Lim, Stephan KruscheThu, 12 Ma💻 cs

Assessing Cognitive Biases in LLMs for Judicial Decision Support: Virtuous Victim and Halo Effects

Diese Studie untersucht, ob große Sprachmodelle menschliche kognitive Verzerrungen wie den „virtuous victim"-Effekt und Prestige-Halo-Effekte aufweisen, und stellt fest, dass diese Modelle zwar im Vergleich zu Menschen leicht reduzierte Halo-Effekte zeigen, jedoch aufgrund von Modellvariationen und fehlender statistischer Signifikanz bei bestimmten Faktoren derzeit noch nicht für die richterliche Entscheidungsunterstützung geeignet sind.

Sierra S. LiuThu, 12 Ma💻 cs

The science and practice of proportionality in AI risk evaluations

Der Artikel untersucht, wie das im EU-Recht verankerte Prinzip der Verhältnismäßigkeit genutzt werden kann, um wissenschaftliche Methoden für die Risikobewertung von allgemeinen KI-Modellen zu entwickeln, die sowohl aussagekräftige Sicherheitsdaten liefern als auch die Innovationsfähigkeit der Anbieter durch übermäßige Belastungen nicht gefährden.

Carlos Mougan, Lauritz Morlock, Jair Aguirre, James R. M. Black, Jan Brauner, Simeon Campos, Sunishchal Dev, David Fernández Llorca, Alberto Franzin, Mario Fritz, Emilia Gómez, Friederike Grosse-Holz, Eloise Hamilton, Max Hasin, Jose Hernandez-Orallo, Dan Lahav, Luca Massarelli, Vasilios Mavroudis, Malcolm Murray, Patricia Paskov, Jaime Raldua, Wout SchellaertThu, 12 Ma💻 cs

DeliberationBench: A Normative Benchmark for the Influence of Large Language Models on Users' Views

Die Studie stellt DeliberationBench vor, einen normativen Benchmark, der die Beeinflussung von Nutzern durch große Sprachmodelle anhand deliberativer Meinungsumfragen bewertet und zeigt, dass diese Modelle in einem randomisierten Experiment mit über 4.000 Teilnehmern einen signifikanten, demokratisch legitimen und epistemisch wünschenswerten Einfluss auf die Meinungsbildung ausüben.

Luke Hewitt, Maximilian Kroner Dale, Paul de Font-ReaulxThu, 12 Ma💻 cs

Prompts and Prayers: the Rise of GPTheology

Diese Studie untersucht das Aufkommen der „GPTheologie" als Form der Techno-Religion, bei der KI-Modelle wie ChatGPT als orakelartige, halb-göttliche Wesen verehrt werden, und analysiert anhand von Online-Community-Diskursen und globalen Projekten, wie sich narrative, rituelle und ethische Dimensionen traditioneller Religionen mit künstlicher Intelligenz vermischen.

Ioana Cheres, Adrian Groza, Ioana Moldovan, Mick O'Hara, Connell VaughanThu, 12 Ma💻 cs