LLLMs: A Data-Driven Survey of Evolving Research on Limitations of Large Language Models

Este artigo apresenta uma revisão semiautomatizada e orientada por dados de pesquisas sobre as limitações de modelos de linguagem grandes (LLLMs) entre 2022 e 2025, identificando um crescimento acelerado do tema e mapeando suas principais tendências, como raciocínio, alucinação e segurança, por meio da análise de um vasto corpus de publicações.

Aida Kostikova, Zhipin Wang, Deidamea Bajri, Ole Pütz, Benjamin Paaßen, Steffen Eger

Publicado 2026-03-12
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que os Modelos de Linguagem Grandes (LLMs), como o ChatGPT, são como crianças superinteligentes que aprenderam a ler quase todos os livros do mundo em questão de dias. Elas escrevem poemas, resolvem problemas de matemática e até programam computadores. Mas, assim como qualquer criança, elas cometem erros, alucinam coisas que não existem e às vezes dizem o que não devem.

Este artigo é como um grande relatório de saúde feito por cientistas para entender exatamente onde essas "crianças" estão tropeçando.

Aqui está a explicação do que eles descobriram, usando analogias do dia a dia:

1. O Grande Crescimento (A "Explosão" de Estudos)

Os autores olharam para 250.000 artigos científicos escritos entre 2022 e 2025.

  • A Analogia: Imagine que em 2022, havia uma pequena feira de ciências sobre robôs. Em 2025, essa feira virou um festival gigante com milhares de estandes.
  • O que eles viram: O número de estudos sobre os erros desses robôs cresceu ainda mais rápido do que os estudos sobre como fazê-los funcionar. Em 2025, mais de 30% de todos os artigos sobre IA já estavam focados apenas em descobrir onde ela falha. É como se, depois de construir o carro, todo mundo estivesse correndo para ver onde estão os freios defeituosos.

2. A "Caixa de Ferramentas" de Detecção de Erros

Como é impossível ler 250.000 papéis um por um, os cientistas usaram uma IA para ler a IA.

  • A Analogia: Eles criaram um "detetive robótico" (usando modelos como o Llama-3 e GPT-4) para vasculhar os títulos e resumos dos artigos. Esse detetive foi treinado por humanos para identificar quando um artigo fala sobre "problemas" e não apenas sobre "sucessos".
  • O Resultado: O detetive achou 14.648 artigos que discutem especificamente as limitações desses modelos. Eles validaram esse trabalho comparando com o que humanos reais leram, garantindo que o robô não estava alucinando os resultados.

3. Os Principais "Defeitos" Encontrados

Depois de organizar esses milhares de artigos, eles agruparam os problemas em categorias, como se estivessem organizando uma caixa de brinquedos quebrados:

  • Raciocínio (O Campeão de Vendas): É o problema mais estudado. É como se a criança soubesse todas as palavras, mas às vezes não entendesse a lógica por trás delas. Ela pode resolver uma equação de matemática, mas falhar em entender um enigma de lógica simples.
  • Alucinação (O Mentiroso Criativo): O modelo inventa fatos. É como um aluno que, em vez de dizer "não sei", inventa uma história convincente sobre um evento que nunca aconteceu. Isso é perigoso, especialmente em medicina ou direito.
  • Segurança (O Portão Aberto): Estudos mostram que pessoas podem "hackear" o robô para fazer coisas ruins (como criar vírus ou discursos de ódio). É como descobrir que a fechadura da casa não é tão segura quanto pensávamos.
  • Viés (O Espelho Distorcido): O robô aprendeu com a internet, e a internet tem preconceitos. Então, o robô pode repetir estereótipos de gênero ou raça, como se fosse um espelho que reflete os piores defeitos da sociedade.

4. A Mudança de Foco (O Que Está Acontecendo Agora?)

O estudo mostrou uma mudança interessante ao longo do tempo:

  • No início (2022-2023): Todo mundo estava preocupado com raciocínio e viés social (se o robô é "racista" ou "burro").
  • Agora (2024-2025): A preocupação mudou para segurança e controle. Com o lançamento de modelos mais poderosos (como o GPT-4), o medo não é mais apenas se eles são burros, mas se eles são perigosos.
    • Analogia: Antes, a gente se preocupava se o carro novo tinha o motor potente. Agora, com o motor superpotente, a preocupação virou: "Será que os freios funcionam? Será que ele não vai sair da pista e atropelar alguém?"
  • O Novo Fenômeno: A Multimodalidade (robôs que veem imagens e ouvem sons) está trazendo novos problemas. É como dar olhos e ouvidos para a criança superinteligente; agora ela pode "alucinar" sobre o que vê em uma foto, não apenas sobre o que lê.

5. A Conclusão: Estamos no Caminho Certo?

O estudo é otimista, mas realista.

  • O que significa: O fato de haver tantos estudos sobre os erros mostra que a comunidade científica está madura. Não estamos mais apenas "fazendo barulho" com a tecnologia nova; estamos inspecionando a obra antes de entregar a chave para o cliente.
  • O Futuro: Eles criaram um banco de dados público com todos esses resumos classificados. É como se tivessem deixado um mapa do tesouro para que outros pesquisadores saibam exatamente onde estão as armadilhas e como evitá-las.

Em resumo:
Este artigo é um mapa que diz: "Olhem, construímos máquinas incríveis, mas elas ainda têm defeitos graves. Estamos estudando esses defeitos mais rápido do que nunca, especialmente os relacionados à segurança e à verdade. Se quisermos usar essas máquinas no mundo real (hospitais, tribunais, escolas), precisamos consertar esses freios antes de acelerar."