Leveraging Label Proportion Prior for Class-Imbalanced Semi-Supervised Learning

Este artigo apresenta um framework leve que integra pela primeira vez a Perda de Proporção (Proportion Loss) do aprendizado com proporções de rótulos ao aprendizado semi-supervisionado para mitigar o viés de classes majoritárias e melhorar o desempenho em cenários de desequilíbrio de classes, demonstrando resultados superiores em benchmarks de longa cauda.

Kohki Akiba, Shinnosuke Matsuo, Shota Harada, Ryoma Bise

Publicado 2026-03-04
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você é um professor tentando ensinar uma turma de alunos sobre 10 tipos de animais diferentes. O problema é que a sua turma tem um desequilíbrio gigante: você tem 90 fotos de Gatos (a maioria), mas apenas 1 foto de Tigre e 1 de Leão (as minorias).

Para ajudar no ensino, você decide usar um "aluno monitor" (o modelo de Inteligência Artificial) para classificar as fotos de animais que ainda não têm nome (os dados não rotulados).

O Problema: O Viés do "Gato"

Na situação atual (aprendizado semi-supervisionado comum), o monitor, vendo tantas fotos de gatos, começa a achar que todo animal é um gato.

  • Ele vê um tigre e diz: "Isso é um gato!".
  • Ele vê um leão e diz: "Isso é um gato!".

Como o professor (o sistema de aprendizado) confia no monitor, ele aceita esses erros. O resultado? O monitor fica cada vez mais confiante de que "tudo é gato", e os alunos (o modelo) nunca aprendem a distinguir os animais raros. É um ciclo vicioso onde a maioria esmaga a minoria.

A Solução: O "Mapa de Proporções"

Os autores deste artigo trouxeram uma ideia brilhante de outra área de estudo (chamada Learning from Label Proportions). Eles disseram:

"E se, em vez de deixar o monitor adivinhar tudo, nós lhe mostrarmos um mapa geral que diz: 'Ei, na sala inteira, existem 10% de gatos, 5% de tigres e 5% de leões'?"

Eles criaram uma nova regra de jogo chamada Perda de Proporção (Proportion Loss).

A Analogia do Balanço

Imagine que o monitor está tentando equilibrar uma balança.

  • Sem a nova regra: Ele coloca 90 pesos de "Gato" e 1 de "Tigre". A balança pende totalmente para o lado do Gato.
  • Com a nova regra (Proporção): O professor coloca um peso invisível no lado do Tigre e diz: "Sua previsão final precisa refletir a proporção real da sala. Se você disser que 90% são gatos, mas a sala só tem 10%, você está errado. Ajuste sua previsão!"

Isso força o modelo a olhar para as fotos de animais raros com mais atenção, garantindo que ele não ignore os "Tigres" só porque há poucos deles.

O Desafio do "Grupo Pequeno" (Mini-batch)

Aqui entra uma complicação divertida. O monitor não olha para a sala inteira de uma vez; ele olha para pequenos grupos de fotos (chamados mini-batches).

  • Às vezes, por puro acaso, ele pega um grupo onde só tem Gatos.
  • Se o professor for rígido demais e disser: "Neste grupo específico, você tem que achar que há Tigres", o monitor vai ficar confuso e tentar forçar a barra, aprendendo errado.

Para resolver isso, os autores criaram uma versão estocástica (aleatória) da regra.

  • A Analogia da Sorte: Em vez de dizer "Neste grupo exato, deve haver 5 tigres", o professor diz: "Baseado na média da sala, é provável que haja cerca de 5 tigres neste grupo, mas pode variar um pouco. Ajuste sua previsão considerando essa chance, mas não se prenda a um número fixo."
  • Isso é feito usando uma distribuição matemática chamada Hipergeométrica Multivariada. Em linguagem simples: é como jogar dados para simular a sorte de qual grupo de alunos você pegou, evitando que o modelo "decore" erros específicos de um grupo pequeno.

O Resultado

Quando eles testaram isso em um banco de dados famoso (CIFAR-10, que é como um álbum de figurinhas de animais), o resultado foi incrível:

  1. Melhorou para todos: O modelo ficou melhor em identificar tanto os animais comuns quanto os raros.
  2. Funciona com poucos dados: Mesmo quando o professor tinha muito poucas fotos rotuladas (apenas 2% ou 4% da turma), a técnica funcionou muito bem.
  3. Correção de Viés: O gráfico no final do artigo mostra que, antes, o modelo achava que havia 40% de "Gatos" (quando na verdade eram menos). Com a nova regra, a previsão se aproximou da realidade, e a precisão geral subiu.

Resumo em uma frase

Os autores criaram um "termômetro de equilíbrio" que impede a Inteligência Artificial de ignorar os grupos minoritários, garantindo que, mesmo com poucos exemplos, o modelo aprenda a ver a diversidade do mundo real, e não apenas o que é mais comum.