The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Este artigo adota uma abordagem centrada nas sobreviventes para expor como o atual ecossistema técnico malicioso, composto por modelos de código aberto e softwares de "nudificação", e as falhas nas práticas de governança de IA, como as refletidas no relatório NIST AI 100-4, falham em prevenir eficazmente a criação de imagens íntimas não consensuais geradas por IA de adultos.

Michelle L. Ding, Harini SureshMon, 09 Ma🤖 cs.AI

AdAEM: An Adaptively and Automated Extensible Measurement of LLMs' Value Difference

O artigo apresenta o AdAEM, um algoritmo de avaliação adaptativo e automatizado que gera dinamicamente perguntas de teste para identificar e medir as diferenças de valores entre Grandes Modelos de Linguagem (LLMs), superando as limitações de métodos estáticos atuais ao maximizar a distinção informativa sobre vieses e alinhamentos culturais.

Jing Yao, Shitong Duan, Xiaoyuan Yi, Dongkuan Xu, Peng Zhang, Tun Lu, Ning Gu, Zhicheng Dou, Xing XieMon, 09 Ma🤖 cs.AI

Towards Autonomous Mathematics Research

O artigo apresenta o Aletheia, um agente de pesquisa matemática autônomo que, combinando raciocínio avançado, escalabilidade na inferência e uso intensivo de ferramentas, gera e revisa soluções em linguagem natural para problemas que vão desde olimpíadas até contribuições originais em pesquisa acadêmica, como a descoberta de constantes estruturais e a resolução de questões abertas, ao mesmo tempo que propõe novos padrões para medir autonomia e transparência na colaboração humano-IA.

Tony Feng, Trieu H. Trinh, Garrett Bingham, Dawsen Hwang, Yuri Chervonyi, Junehyuk Jung, Joonkyung Lee, Carlo Pagano, Sang-hyun Kim, Federico Pasqualotto, Sergei Gukov, Jonathan N. Lee, Junsu Kim, Kaiying Hou, Golnaz Ghiasi, Yi Tay, YaGuang Li, Chenkai Kuang, Yuan Liu, Hanzhao Lin, Evan Zheran Liu, Nigamaa Nayakanti, Xiaomeng Yang, Heng-Tze Cheng, Demis Hassabis, Koray Kavukcuoglu, Quoc V. Le, Thang LuongMon, 09 Ma🤖 cs.AI

The Consensus Trap: Dissecting Subjectivity and the "Ground Truth" Illusion in Data Annotation

Este artigo analisa criticamente a ilusão da "verdade fundamental" na anotação de dados, argumentando que a busca por consenso suprime a subjetividade legítima e a diversidade cultural, propondo em seu lugar infraestruturas de anotação pluralistas que valorizem o desacordo como um sinal essencial para o desenvolvimento de modelos de aprendizado de máquina culturalmente competentes.

Sheza Munir, Benjamin Mah, Krisha Kalsi, Shivani Kapania, Julian Posada, Edith Law, Ding Wang, Syed Ishtiaque AhmedMon, 09 Ma🤖 cs.AI

Operational Agency: A Permeable Legal Fiction for Tracing Culpability in AI Systems

Este artigo propõe a "Operational Agency" (Agência Operacional) e o "Operational Agency Graph" (Grafo de Agência Operacional) como estruturas jurídicas e ferramentas analíticas para rastrear e atribuir responsabilidade penal e civil aos humanos envolvidos no ciclo de vida de sistemas de IA, mapeando suas interações causais sem necessariamente conceder personalidade jurídica à própria inteligência artificial.

Anirban Mukherjee, Hannah Hanwen ChangMon, 09 Ma💻 cs

Exploring Human-in-the-Loop Themes in AI Application Development: An Empirical Thematic Analysis

Este estudo empírico identifica quatro temas centrais — Governança de IA e Autoridade Humana, Refinamento Iterativo com Humano no Loop, Ciclo de Vida do Sistema e Restrições Operacionais, e Colaboração e Coordenação entre Humano e IA — por meio de uma análise qualitativa de um chatbot de suporte ao cliente e entrevistas com especialistas, visando orientar a estruturação de papéis e mecanismos de feedback no desenvolvimento de aplicações de IA.

Parm Suksakul, Nathan Kittichaikoonkij, Nakhin Polthai, Aung PyaeMon, 09 Ma🤖 cs.AI

From Risk Avoidance to User Empowerment: Reframing Safety in Generative AI for Mental Health Crises

O artigo propõe a substituição das atuais estratégias de evasão de risco em chatbots de IA generativa por princípios de design focados no empoderamento do usuário, visando transformar essas ferramentas em pontes de apoio eficazes que desescalam crises de saúde mental e conectam os indivíduos a cuidados mais confiáveis.

Benjamin Kaveladze, Arka Ghosh, Leah Ajmani, Denae Ford, Peter M Gutierrez, Jetta E Hanson, Eugenia Kim, Keertana Namuduri, Theresa Nguyen, Ebele Okoli, Teresa Rexin, Jessica L Schleider, Hongyi Shen, Jina SuhMon, 09 Ma💻 cs

The DSA's Blind Spot: Algorithmic Audit of Advertising and Minor Profiling on TikTok

Este estudo revela que, embora o TikTok cumpra formalmente a proibição da DSA de publicidade profilada a menores, a definição restritiva de "anúncio" permite que conteúdos comerciais disfarçados (como marketing de influenciadores) contornem a regulação, resultando numa profilagem algorítmica para menores que é significativamente mais intensa do que a observada em adultos.

Sara Solarova, Matej Mosnar, Matus Tibensky, Jan Jakubcik, Adrian Bindas, Simon Liska, Filip Hossner, Matúš Mesarčík, Ivan SrbaMon, 09 Ma🤖 cs.AI

Measuring Perceptions of Fairness in AI Systems: The Effects of Infra-marginality

Este estudo demonstra que as percepções humanas de justiça em sistemas de IA são moldadas não apenas pelos resultados, mas também pelas crenças sobre as causas das disparidades, como a infra-marginalidade, indicando que métricas de justiça algorítmica devem considerar o contexto distribucional para alinhar-se às expectativas humanas.

Schrasing Tong, Minseok Jung, Ilaria Liccardi, Lalana KagalMon, 09 Ma💻 cs

THETA: A Textual Hybrid Embedding-based Topic Analysis Framework and AI Scientist Agent for Scalable Computational Social Science

Este artigo apresenta o THETA, um novo framework computacional e agente de IA que combina embeddings híbridos adaptados a domínios específicos com julgamento humano simulado para superar as limitações de escalabilidade e profundidade teórica na análise de grandes volumes de dados sociais, oferecendo resultados mais coerentes e interpretáveis do que os modelos tradicionais.

Zhenke Duan, Xin LiMon, 09 Ma💻 cs

SemFuzz: A Semantics-Aware Fuzzing Framework for Network Protocol Implementations

O artigo apresenta o SemFuzz, um framework de fuzzing consciente de semântica que utiliza modelos de linguagem grandes para extrair regras de especificações RFC e gerar casos de teste que violam intencionalmente essas regras, demonstrando eficácia na descoberta de vulnerabilidades semânticas profundas em implementações de protocolos de rede.

Yanbang Sun, Quan Luo, Yuelin Wang, Qian Chen, Benjin Liu, Ruiqi Chen, Qing Huang, Xiaohong Li, Junjie WangMon, 09 Ma💻 cs

What are AI researchers worried about?

Este estudo, baseado na maior pesquisa já realizada com mais de 4.000 pesquisadores de IA, revela que, ao contrário do discurso público dominado por riscos existenciais, a comunidade científica prioriza preocupações sociotécnicas imediatas e compartilha com o público uma convergência surpreendente na avaliação de riscos, sugerindo a necessidade de um diálogo focado em mitigar danos já existentes.

Cian O'Donovan, Sarp Gurakan, Ananya Karanam, Xiaomeng Wu, Jack StilgoeMon, 09 Ma💻 cs

Mind the Gap: Pitfalls of LLM Alignment with Asian Public Opinion

Este artigo revela que, embora os Grandes Modelos de Linguagem (LLMs) se alinhem geralmente com a opinião pública em questões sociais amplas na Ásia, eles falham consistentemente em representar corretamente perspectivas religiosas, especialmente de minorias, perpetuando estereótipos negativos que não são totalmente mitigados por intervenções simples, o que destaca a necessidade urgente de auditorias regionais sistemáticas para garantir uma implantação global equitativa.

Hari Shankar, Vedanta S P, Sriharini Margapuri, Debjani Mazumder, Ponnurangam Kumaraguru, Abhijnan ChakrabortyMon, 09 Ma💬 cs.CL