Not All Candidates are Created Equal: A Heterogeneity-Aware Approach to Pre-ranking in Recommender Systems

Questo articolo presenta HAP, un approccio di pre-ranking che gestisce l'eterogeneità dei candidati nei sistemi di raccomandazione disaccoppiando i campioni facili e difficili per ottimizzare l'addestramento e l'allocazione computazionale, ottenendo miglioramenti significativi nelle metriche di engagement nel sistema di produzione di Toutiao senza costi aggiuntivi.

Pengfei Tong, Siyuan Chen, Chenwei Zhang, Bo Wang, Qi Pi, Pixun Li, Zuotao Liu

Pubblicato 2026-03-05
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di essere il responsabile di una gigantesca libreria digitale (come l'app di notizie Toutiao di ByteDance) che deve mostrare a ogni utente le 10 notizie più interessanti tra milioni di possibilità disponibili.

Il problema è che non puoi leggere e analizzare tutte le milioni di notizie in pochi millisecondi: il computer esploderebbe! Quindi, usi un sistema a più stadi, come un imbuto:

  1. Recupero: Prendi un mucchio enorme di libri (milioni).
  2. Pre-classifica (Pre-ranking): Un primo filtro veloce ne seleziona un centinaio.
  3. Classifica (Ranking): Un esperto molto intelligente sceglie i migliori 10.

Il punto debole di questo sistema è il filtro veloce (Pre-ranking). Fino a poco tempo fa, questo filtro trattava tutte le notizie allo stesso modo, come se fossero tutte ugualmente difficili da valutare.

Il Problema: "Non tutte le candele bruciano allo stesso modo"

Gli autori di questo articolo hanno notato due grandi errori in come funzionavano i filtri precedenti:

  1. Il caos dei "cattivi" esempi: Quando si addestra l'intelligenza artificiale, si usano esempi di cose che l'utente non ha cliccato (notizie "cattive"). Ci sono notizie "cattive" ovvie (es. una ricetta di cucina a un utente che vuole notizie di calcio) e notizie "cattive" difficili (es. una notizia di calcio sbagliata per un utente che ama il basket).

    • L'analogia: Immagina di insegnare a un bambino a riconoscere i gatti. Se gli mostri un cane (facile) e un tigre (difficile) e li chiami entrambi "non-gatto", il bambino si confonde. La "tigre" (il campione difficile) urla così forte che il bambino smette di imparare dal "cane" (il campione facile). Il modello diventa bravo a riconoscere le tigre, ma dimentica come riconoscere i gatti veri, perché si è concentrato troppo sugli errori difficili.
  2. Spreco di energia: Si usava un "super-cervello" (un modello molto grande e potente) per analizzare tutte le notizie, anche quelle ovvie.

    • L'analogia: È come usare un razzo spaziale per andare a comprare il latte al negozio sotto casa. È uno spreco di carburante! Il razzo (il modello grande) è necessario per le mete difficili, ma per il latte basta una bicicletta.

La Soluzione: HAP (Il Sistema Intelligente)

Gli autori hanno creato un nuovo sistema chiamato HAP che risolve questi problemi con due trucchi geniali:

1. Il "Trucco della Calma" (Gradient Harmonization)

Invece di far urlare tutti gli esempi insieme, HAP mette i "campioni facili" e i "campioni difficili" in stanze diverse durante l'allenamento.

  • L'analogia: Invece di un unico coro dove i cantanti forti coprono quelli deboli, HAP organizza due cori separati. Il coro dei "facili" canta la sua canzone, e il coro dei "difficili" canta la sua. Poi, il maestro (l'algoritmo) ascolta entrambi e impara da tutti senza che uno copra l'altro. Questo rende l'AI più stabile e intelligente.

2. Il "Portiere Intelligente" (Difficulty-Aware Model Routing)

HAP non usa un solo modello gigante per tutto. Usa una squadra a due livelli:

  • Livello 1 (La Bicicletta): Un modello piccolo, veloce e leggero analizza tutte le notizie. Se una notizia è chiaramente sbagliata (es. ricetta di cucina per un fan del calcio), la scarta subito. È velocissimo ed economico.
  • Livello 2 (Il Razzo): Solo le notizie che il primo modello non è sicuro di scartare (quelle "difficili", quelle che sembrano quasi giuste) vengono passate al modello grande e potente.
  • L'analogia: Immagina un aeroporto. Migliaia di passeggeri arrivano. Un addetto veloce controlla i bagagli ovvi (chi ha solo una valigia piccola). Solo chi ha un bagaglio strano o sospetto viene mandato a un controllo di sicurezza approfondito con i cani e le macchine a raggi X. Risultato: l'aeroporto è più veloce e sicuro, senza sprecare tempo sui passeggeri normali.

I Risultati nella Vita Reale

Questo sistema è stato installato nell'app Toutiao (una delle più grandi app di notizie in Cina) e ha funzionato splendidamente per 9 mesi:

  • Gli utenti sono rimasti nell'app più a lungo: Hanno letto più notizie pertinenti (+0,4% di tempo di utilizzo).
  • Gli utenti tornano più spesso: Hanno aperto l'app più giorni (+0,05% di giorni attivi).
  • Risparmio energetico: Paradossalmente, usando meno "cervello" per le cose facili, il sistema è diventato più efficiente e ha consumato meno energia, pur essendo più preciso.

In Sintesi

Il paper ci insegna che non tutti i candidati sono uguali. Invece di trattare tutti gli utenti e le notizie con la stessa forza bruta, dobbiamo essere intelligenti: usare la "bicicletta" per le cose semplici e il "razzo" solo per le cose difficili, assicurandoci che durante l'allenamento nessuno "urla" più forte degli altri. È un modo per rendere le raccomandazioni più umane, veloci ed economiche.