Agentic Jackal: Live Execution and Semantic Value Grounding for Text-to-JQL

O artigo apresenta o "Agentic Jackal", um novo benchmark em larga escala baseado em execução e uma abordagem de agente que utiliza ferramentas de busca semântica e execução ao vivo para superar as limitações dos modelos de linguagem na tradução precisa de linguagem natural para a linguagem de consulta do Jira (JQL).

Autores originais: Vishnu Murali, Anmol Gulati, Elias Lumer, Kevin Frank, Sindy Campagna, Vamse Kumar Subbiah

Publicado 2026-04-13
📖 5 min de leitura🧠 Leitura aprofundada

Esta é uma explicação gerada por IA do artigo abaixo. Não foi escrita nem endossada pelos autores. Para precisão técnica, consulte o artigo original. Ler aviso legal completo

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um assistente de escritório muito inteligente, capaz de entender o que você diz em linguagem natural. O problema é que ele precisa escrever pedidos para um sistema de gerenciamento de projetos chamado Jira, que usa uma linguagem técnica e complicada chamada JQL.

Pense no JQL como a "língua dos robôs" do Jira. Se você pedir: "Mostre-me os bugs do projeto X que foram corrigidos na versão 6.5", o assistente precisa traduzir isso perfeitamente para o código do Jira.

O artigo que você enviou descreve um novo projeto chamado Agentic Jackal (o "Chacal Agente"), criado por pesquisadores da PwC, para resolver os problemas que os assistentes atuais têm ao fazer essa tradução.

Aqui está a explicação simples, usando analogias do dia a dia:

1. O Problema: O Assistente que Adivinha

Antes do "Jackal", os assistentes (chamados de modelos de IA) funcionavam como um estudante que tenta passar em uma prova sem consultar o livro.

  • O Desafio: O Jira de cada empresa é diferente. Uma empresa pode chamar uma versão de "6.5", enquanto a outra chama "6.5.0 Beta". O assistente, sem acesso ao "livro" (o banco de dados real), apenas chuta.
  • O Resultado: Se o assistente chutar o nome errado, o pedido falha silenciosamente (não mostra nada) ou dá erro. Eles acertavam em traduções literais, mas falhavam miseravelmente quando você mudava as palavras ou era um pouco vago.

2. A Solução: O "Chacal Agente" (Agentic Jackal)

Os pesquisadores criaram um novo tipo de assistente que não apenas "adivinha", mas age e verifica. Eles chamam isso de "agente".

Imagine que o antigo assistente era um cozinheiro que tenta fazer um prato sem provar a comida. O novo "Chacal Agente" é um cozinheiro que:

  1. Prepara o prato (escreve o código).
  2. Prova o prato (executa o código no Jira real).
  3. Ajusta a receita se o sabor estiver errado (se o resultado estiver vazio ou der erro).

Ele faz isso em um ciclo rápido: Escrever -> Testar -> Corrigir -> Testar de novo, até acertar.

3. A Ferramenta Mágica: "JiraAnchor"

Existe um problema específico que o ciclo de "provar e ajustar" não resolve sozinho: nomes de coisas que não existem no seu cérebro.

Imagine que você pede: "Mostre-me as tarefas relacionadas a 'estruturas de dados'".

  • No Jira, o nome oficial da categoria pode ser algo estranho como: "Core: Containers and Algorithms".
  • O assistente não sabe que "estruturas de dados" é o mesmo que "Containers and Algorithms" a menos que ele olhe a lista oficial.

Aqui entra o JiraAnchor. Pense nele como um tradutor de gírias que consulta um dicionário vivo.

  • Quando o assistente ouve "estruturas de dados", ele aciona o JiraAnchor.
  • O JiraAnchor vai até o Jira real, procura por nomes parecidos (usando inteligência semântica, como um Google interno) e diz: "Ei, o nome oficial que você precisa é 'Core: Containers and Algorithms'".
  • Isso evita que o assistente invente nomes que não existem.

4. O Que Eles Descobriram (Os Resultados)

Eles testaram 9 dos maiores "cérebros" de IA do mundo com esse novo sistema:

  • Sem o Agente (O jeito antigo): A precisão era baixa, especialmente em pedidos vagos. Era como tentar adivinhar o código de barras de um produto sem olhar a etiqueta.
  • Com o Agente (O jeito novo): A precisão subiu significativamente. O sistema conseguiu corrigir seus próprios erros ao ver que o pedido não retornava resultados.
  • O Impacto do JiraAnchor: Quando o assistente usou o "dicionário vivo" (JiraAnchor) para encontrar os nomes corretos das categorias, a precisão em tarefas difíceis saltou de 48% para 71%. Foi como dar ao assistente um mapa atualizado em vez de um mapa de 1990.

5. Onde Ainda Dá Erro?

Apesar de tudo, o sistema não é perfeito. O estudo descobriu que a maioria dos erros não era por falta de dados, mas por ambiguidade humana.

  • Exemplo: Se você diz "bugs", o sistema não sabe se você quer procurar pela palavra "bug" no texto do problema ou se quer filtrar apenas os itens marcados como "Tipo: Bug".
  • Isso é como pedir "uma bebida gelada" em um bar. O garçom não sabe se você quer cerveja, suco ou água. O sistema precisa de mais contexto do usuário, não de mais ferramentas.

Resumo Final

O Agentic Jackal é como transformar um assistente que apenas "fala" em um assistente que faz e verifica.

  • Ele usa ferramentas para provar se o pedido funciona no mundo real.
  • Ele usa o JiraAnchor para olhar a lista oficial de nomes antes de escrever.
  • O resultado é um sistema muito mais confiável para empresas que precisam transformar pedidos simples em comandos complexos de software, embora ainda precise de ajuda humana quando o pedido for muito confuso.

É um grande passo para fazer a tecnologia "conversar" de verdade com os sistemas que as empresas usam todos os dias.

Afogado em artigos na sua área?

Receba digests diários dos artigos mais recentes que correspondam às suas palavras-chave de pesquisa — com resumos técnicos, no seu idioma.

Experimentar Digest →