The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Diese Studie untersucht aus einer Überlebendenperspektive die Versagen der aktuellen KI-Governance-Maßnahmen, die durch einen „bösartigen technischen Ökosystem" aus Open-Source-Modellen und leicht zugänglicher Software ermöglicht wird, das die Erstellung nicht-einvernehmlicher, KI-generierter intimer Bilder von Erwachsenen erleichtert.

Michelle L. Ding, Harini SureshMon, 09 Ma🤖 cs.AI

Classroom AI: Large Language Models as Grade-Specific Teachers

Die vorgestellte Studie entwickelt einen Rahmen zur Feinabstimmung von Large Language Models, der mithilfe von sieben Lesbarkeitsmetriken und einem speziellen Datensatz altersgerechte und faktenbasierte Bildungsinhalte für sechs Schulstufen generiert und dabei im Vergleich zu reinen Prompt-Methoden eine signifikante Verbesserung der Niveauangemessenheit bei gleichzeitiger Wahrung der Richtigkeit erzielt.

Jio Oh, Steven Euijong Whang, James Evans, Jindong WangMon, 09 Ma🤖 cs.AI

Towards Autonomous Mathematics Research

Die Arbeit stellt Aletheia vor, einen autonomen mathematischen Forschungsagenten, der auf dem Gemini Deep Think-Modell basiert und durch iterative Generierung, Verifizierung und Revision von Lösungen in natürlicher Sprache sowohl Olympiadaufgaben als auch komplexe Forschungsarbeiten, einschließlich vollständig KI-generierter und kollaborativer wissenschaftlicher Beiträge, bewältigt.

Tony Feng, Trieu H. Trinh, Garrett Bingham, Dawsen Hwang, Yuri Chervonyi, Junehyuk Jung, Joonkyung Lee, Carlo Pagano, Sang-hyun Kim, Federico Pasqualotto, Sergei Gukov, Jonathan N. Lee, Junsu Kim, Kaiying Hou, Golnaz Ghiasi, Yi Tay, YaGuang Li, Chenkai Kuang, Yuan Liu, Hanzhao Lin, Evan Zheran Liu, Nigamaa Nayakanti, Xiaomeng Yang, Heng-Tze Cheng, Demis Hassabis, Koray Kavukcuoglu, Quoc V. Le, Thang LuongMon, 09 Ma🤖 cs.AI

The Consensus Trap: Dissecting Subjectivity and the "Ground Truth" Illusion in Data Annotation

Diese Studie widerlegt die Illusion einer objektiven „Ground Truth" in der Datenannotation, indem sie aufzeigt, wie systematische Verzerrungen und der Druck zur Konsensbildung menschliche Meinungsverschiedenheiten als Rauschen unterdrücken, und fordert stattdessen eine pluralistische Infrastruktur, die kulturelle Vielfalt als essenzielles Signal anerkennt.

Sheza Munir, Benjamin Mah, Krisha Kalsi, Shivani Kapania, Julian Posada, Edith Law, Ding Wang, Syed Ishtiaque AhmedMon, 09 Ma🤖 cs.AI

Operational Agency: A Permeable Legal Fiction for Tracing Culpability in AI Systems

Der Artikel stellt das Konzept der „Operational Agency" als eine durchlässige rechtliche Fiktion und das zugehörige „Operational Agency Graph"-Modell vor, um die Verantwortung für autonome KI-Systeme durch die Analyse ihrer operativen Merkmale und die Zuweisung von Schuld auf menschliche Akteure zu klären, ohne dabei der KI eine eigene Rechtspersönlichkeit zu verleihen.

Anirban Mukherjee, Hannah Hanwen ChangMon, 09 Ma💻 cs

AI Researchers' Views on Automating AI R&D and Intelligence Explosions

Eine Studie mit 25 führenden KI-Forschern aus dem Jahr 2025 zeigt, dass die Mehrheit die Automatisierung der KI-Forschung als schwerwiegendes Risiko und potenziellen Auslöser für exponentielle Intelligenzsteigerungen ansieht, wobei jedoch hinsichtlich der Zeitrahmen, der Skepsis gegenüber solchen Szenarien zwischen akademischen und industriellen Forschern sowie der besten Governance-Maßnahmen erhebliche Meinungsverschiedenheiten bestehen.

Severin Field, Raymond Douglas, David KruegerMon, 09 Ma💻 cs

Biometric-enabled Personalized Augmentative and Alternative Communications

Diese Studie skizziert einen Fahrplan für die Integration biometrischer Technologien in personalisierte augmentative und alternative Kommunikationssysteme, wobei sie anhand von Fallstudien zu Gesten- und Gebärdenerkennung feststellt, dass die aktuelle KI-Genauigkeit noch nicht den praktischen Anforderungen entspricht, und empfiehlt Maßnahmen zur Schließung dieser Lücke.

S. Yanushkevich, E. Berepiki, P. Ciunkiewicz, V. Shmerko, G. Wolbring, R. GuestMon, 09 Ma💻 cs

From Risk Avoidance to User Empowerment: Reframing Safety in Generative AI for Mental Health Crises

Der Artikel kritisiert die risikovermeidende Gestaltung aktueller KI-Chatbots im Kontext psychischer Krisen und schlägt stattdessen ein empowerndes Design vor, das KI als unterstützende Brücke zur Deeskalation und Weitervermittlung an professionelle Hilfsangebote nutzt.

Benjamin Kaveladze, Arka Ghosh, Leah Ajmani, Denae Ford, Peter M Gutierrez, Jetta E Hanson, Eugenia Kim, Keertana Namuduri, Theresa Nguyen, Ebele Okoli, Teresa Rexin, Jessica L Schleider, Hongyi Shen, Jina SuhMon, 09 Ma💻 cs

The DSA's Blind Spot: Algorithmic Audit of Advertising and Minor Profiling on TikTok

Diese Studie zeigt durch einen algorithmischen Audit von TikTok auf, dass die aktuelle Definition von „Werbung" im Digital Services Act (DSA) eine regulatorische Lücke darstellt, die es ermöglicht, dass personalisierte Influencer- und Marketinginhalte trotz des Verbots von profilbasierten Werbeanzeigen für Minderjährige weiterhin wirksam an diese Zielgruppe ausgespielt werden.

Sara Solarova, Matej Mosnar, Matus Tibensky, Jan Jakubcik, Adrian Bindas, Simon Liska, Filip Hossner, Matúš Mesarčík, Ivan SrbaMon, 09 Ma🤖 cs.AI

THETA: A Textual Hybrid Embedding-based Topic Analysis Framework and AI Scientist Agent for Scalable Computational Social Science

Die Arbeit stellt THETA vor, ein Open-Source-Framework, das durch domain-adaptives Fine-Tuning von Embedding-Modellen und einen Multi-Agenten-KI-Ansatz die Skalierbarkeit qualitativer Sozialforschung mit theoretischer Tiefe verbindet und dabei traditionelle Topic-Modelle in der semantischen Kohärenz und Domänenspezifität übertrifft.

Zhenke Duan, Xin LiMon, 09 Ma💻 cs

SemFuzz: A Semantics-Aware Fuzzing Framework for Network Protocol Implementations

Das Paper stellt SemFuzz vor, ein semantikbewusstes Fuzzing-Framework, das mithilfe von Large Language Models RFC-Dokumente analysiert, um gezielt Testfälle zu generieren und tiefgreifende semantische Schwachstellen in Netzwerkprotokoll-Implementierungen zu entdecken, von denen mehrere als neue CVEs bestätigt wurden.

Yanbang Sun, Quan Luo, Yuelin Wang, Qian Chen, Benjin Liu, Ruiqi Chen, Qing Huang, Xiaohong Li, Junjie WangMon, 09 Ma💻 cs

What are AI researchers worried about?

Eine Umfrage unter über 4.000 KI-Forschern zeigt, dass diese im Gegensatz zu öffentlichen Debatten und Medienberichten existenzielle Risiken kaum priorisieren, sondern sich eher mit konkreten, bereits bekannten sozio-technischen Risiken befassen, was eine engere Zusammenarbeit zwischen Politik und Wissenschaft zur Bewältigung dieser aktuellen Herausforderungen nahelegt.

Cian O'Donovan, Sarp Gurakan, Ananya Karanam, Xiaomeng Wu, Jack StilgoeMon, 09 Ma💻 cs

Mind the Gap: Pitfalls of LLM Alignment with Asian Public Opinion

Diese Studie zeigt, dass aktuelle große Sprachmodelle trotz guter Leistung bei allgemeinen sozialen Themen in asiatischen Ländern häufig religiöse Minderheitenmeinungen falsch abbilden und negative Stereotype verstärken, wobei einfache Eingabeanpassungen diese kulturellen Lücken nur teilweise schließen können.

Hari Shankar, Vedanta S P, Sriharini Margapuri, Debjani Mazumder, Ponnurangam Kumaraguru, Abhijnan ChakrabortyMon, 09 Ma💬 cs.CL