Constructing Synthetic Instruction Datasets for Improving Reasoning in Domain-Specific LLMs: A Case Study in the Japanese Financial Domain

Este estudo propõe um método geral para construir conjuntos de dados sintéticos de alta qualidade com raciocínio passo a passo a partir de vocabulário específico, demonstrando sua eficácia ao melhorar o desempenho de modelos de linguagem no domínio financeiro japonês através de um dataset de 9,5 bilhões de tokens.

Yuma Okochi, Fabio Milentiansen Sim, Tomoyasu Okada

Publicado 2026-03-03
📖 5 min de leitura🧠 Leitura aprofundada

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um estudante universitário muito inteligente, que leu milhões de livros e sabe de tudo um pouco. Esse é o nosso Modelo de Linguagem (LLM). Ele é genial, mas se você o colocar para trabalhar em um banco japonês, ele pode se perder. Ele conhece o conceito de "juros", mas não sabe as regras específicas da lei bancária do Japão, nem como um consultor financeiro local explicaria isso para um cliente.

Este artigo conta a história de como os pesquisadores da Nomura Research Institute ensinaram esse "estudante genial" a se tornar um especialista financeiro japonês, e o segredo não foi apenas dar mais livros para ele ler, mas sim ensinar a forma de pensar.

Aqui está a explicação do método deles, usando analogias do dia a dia:

1. O Problema: Saber vs. Pensar

Antes, para ensinar um computador sobre finanças, os pesquisadores apenas jogavam milhares de documentos financeiros na "memória" dele (como dar uma pilha de jornais para o estudante ler). Isso ajudava o computador a saber fatos, mas não a raciocinar sobre problemas complexos, como prever fraudes ou analisar tendências de mercado.

O novo desafio era: como fazer o computador não apenas "saber" a resposta, mas pensar passo a passo antes de responder? É a diferença entre alguém que apenas decora a fórmula de matemática e alguém que sabe como chegar à fórmula.

2. A Solução: A Fábrica de Perguntas Inteligentes

Os autores criaram uma "fábrica" automática para gerar dados de treinamento. Em vez de escreverem perguntas manualmente (o que levaria anos), eles usaram uma IA mais inteligente para criar milhões de exemplos.

Pense nisso como um chef de cozinha (a IA) que recebe uma lista de ingredientes (palavras-chave como "seguro", "bolsa de valores", "imposto").

  • Passo 1 (Seleção): Eles escolheram os ingredientes certos para o prato japonês (o domínio financeiro).
  • Passo 2 (Criação): O chef criou milhões de receitas (perguntas) diferentes. Algumas eram simples, outras eram desafios complexos de lógica.
  • Passo 3 (O Segredo do Raciocínio): Aqui está a mágica. Para cada receita, o chef não apenas escreveu a resposta final. Ele escreveu um diário de bordo (o "Chain-of-Thought" ou Raciocínio em Cadeia).
    • Exemplo: Em vez de apenas dizer "A resposta é X", o modelo aprendeu a escrever: "Primeiro, olhe para a regra A. Depois, considere o cenário B. Isso nos leva à conclusão C. Portanto, a resposta é X."
  • Passo 4 (Filtro de Qualidade): Eles usaram um "inspetor de qualidade" (outra IA) para garantir que essas receitas não estavam estragadas e que o raciocínio fazia sentido.

O resultado foi um livro de receitas gigante de 9,5 bilhões de palavras (tokens), cheio de exemplos de como pensar sobre finanças no Japão.

3. O Treinamento: Praticando com o Mestre

Depois de criar esse livro de receitas, eles ensinaram dois modelos diferentes:

  1. Aprendizado Contínuo (CPT): Primeiro, deram ao estudante apenas os documentos financeiros brutos para ele se familiarizar com o vocabulário (como ler os jornais).
  2. Ajuste Fino (SFT): Depois, usaram o livro de receitas com os "diários de bordo" para ensinar o modelo a raciocinar.

O Resultado:
Os modelos treinados com esse método superaram os modelos oficiais que já existiam. Eles não só sabiam mais sobre finanças, mas conseguiam resolver problemas complexos com muito mais precisão. Foi como transformar um estudante que apenas decora fatos em um consultor financeiro sênior que sabe analisar situações.

4. A Descoberta Curiosa: Mais Pensamento é Sempre Melhor?

Uma parte interessante do estudo foi testar: "E se obrigarmos o modelo a pensar mais tempo antes de responder?"

Eles forçaram o modelo a escrever raciocínios de tamanhos diferentes (curtos, médios, longos).

  • A Descoberta: Pense nisso como um atleta. Correr um pouco mais ajuda a melhorar a performance. Mas, se você forçar o atleta a correr demais (mais de 1024 "passos" de pensamento), ele começa a cansar e a dar voltas em círculos.
  • O Limite: Eles descobriram que, após certo ponto, forçar o modelo a pensar mais não ajuda; pelo contrário, ele começa a repetir a mesma conclusão ou a "travar" tentando atingir o número de palavras exigido. É como se o modelo dissesse: "Ok, já cheguei à conclusão, mas como você mandou eu pensar mais, vou ficar repetindo 'a resposta é D' até ficar cansado".

Resumo Final

Este trabalho mostra que, para ensinar inteligência artificial em áreas especializadas (como finanças ou direito), não basta apenas dar mais informações. É preciso ensinar como pensar.

Eles criaram um método que pode ser usado em qualquer área (medicina, engenharia, etc.): pegar os tópicos principais, gerar exemplos com "passo a passo" do raciocínio e filtrar o que é bom. O resultado foi um modelo muito mais inteligente e útil para o mercado financeiro japonês, e a lição é que pensar um pouco mais ajuda, mas pensar demais pode atrapalhar.

Eles agora disponibilizaram esses dados e modelos de graça para que outros pesquisadores possam usar essa "fábrica de inteligência" para criar especialistas em outras áreas.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →