Each language version is independently generated for its own context, not a direct translation.
Imagine que as empresas modernas têm um "diário de bordo" gigante chamado Relatório ESG. Nele, elas contam como cuidam do E meio ambiente, como tratam as pessoas (Social) e como são geridas (Governança). Antigamente, escrever esse diário era opcional, mas hoje, em muitos lugares, é obrigatório por lei. É como se a empresa tivesse que mostrar a fatura de tudo o que faz de bom (ou ruim) para o planeta e a sociedade.
O problema é que esses diários são enormes, cheios de tabelas, gráficos e textos complicados. Ninguém consegue ler tudo isso manualmente. Então, a gente pediu ajuda para os Robôs Inteligentes (chamados de Modelos de Linguagem ou LLMs, como o ChatGPT) para lerem e resumirem essas informações.
Aqui entra o grande problema: os robôs às vezes alucinam.
O Problema da "Alucinação"
Imagine que você pede ao seu robô de cozinha para fazer um bolo baseado em uma receita antiga e confusa.
- Alucinação Aditiva: O robô inventa um ingrediente que não existe na receita (ex: "adicionei um pouco de chocolate azul, que estava no texto"). Na verdade, o texto não falava de chocolate.
- Alucinação Omissiva: O robô vê que a receita diz "adicione 2 ovos", mas ele esquece de mencionar isso e diz "a receita não tem ovos".
No mundo dos negócios, se um robô inventar que uma empresa é "verde" quando ela não é, ou esquece de mencionar uma multa ambiental, isso pode enganar investidores e prejudicar o planeta.
A Solução: O "ESG-Bench" (O Campo de Treino)
Os autores deste artigo criaram um campo de treino especial chamado ESG-Bench. É como uma academia de ginástica para robôs, mas em vez de pesos, eles levantam perguntas sobre relatórios ESG.
- O que tem lá? Perguntas reais feitas por humanos, com as respostas corretas (baseadas no texto original) e um "selo de verificação" dizendo se o robô acertou, errou ou inventou algo.
- O objetivo: Ensinar o robô a não inventar coisas e a dizer "não sei" quando a resposta não está no texto, em vez de chutar.
Como eles ensinaram os robôs? (A Técnica do "Pensamento em Cadeia")
Eles não apenas deram as respostas certas para os robôs decorarem. Eles usaram uma técnica chamada Chain-of-Thought (Cadeia de Pensamento), que é como ensinar uma criança a resolver um problema de matemática passo a passo, em vez de apenas dar o número final.
Eles criaram duas rotinas de treino:
- Passo a Passo Simples: O robô primeiro pensa: "O texto tem a resposta?" Se sim, ele responde. Se não, ele diz "Não encontrei".
- Passo a Passo Avançado (4 etapas): O robô faz um roteiro mental:
- Passo 1: Qual é o assunto da pergunta?
- Passo 2: Vou procurar no texto onde fala disso.
- Passo 3: O texto realmente responde?
- Passo 4: Agora, com base nisso, qual é a resposta?
O Resultado
Os robôs treinados com esse método de "pensar antes de falar" ficaram muito melhores.
- Eles inventaram muito menos coisas.
- Eles aprenderam a dizer "não sei" com mais confiança quando a informação não estava lá.
- O que é mais legal: o que eles aprenderam no treino de ESG serviu para melhorar a resposta deles em outros assuntos também!
Resumo da Ópera
Pense no ESG-Bench como um professor rigoroso que pegou relatórios gigantes e ensinou os robôs a serem honestos e precisos. Em vez de apenas "adivinhar" o que está escrito, os robôs agora aprendem a procurar a prova no texto antes de responder. Isso é crucial para garantir que as empresas não estejam mentindo sobre o quanto são "sustentáveis" e para que os investidores não sejam enganados por robôs alucinados.
É como passar de um aluno que chuta as respostas para um aluno que consulta o livro de regras antes de levantar a mão!
Receba artigos como este na sua caixa de entrada
Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.