Scaling Search Relevance: Augmenting App Store Ranking with LLM-Generated Judgments

Questo articolo descrive come l'uso di un modello LLM specializzato per generare milioni di etichette di rilevanza testuale abbia permesso di migliorare significativamente il ranking dell'App Store, superando la scarsità di dati etichettati manualmente e ottenendo un aumento del tasso di conversione, specialmente per le query a coda lunga.

Evangelia Christakopoulou, Vivekkumar Patel, Hemanth Velaga, Sandip Gaikwad, Sean Suchter, Venkat Sundaranatha

Pubblicato Tue, 10 Ma
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina l'App Store di Apple come una biblioteca gigantesca con milioni di libri (le app). Il compito del bibliotecario (il sistema di ricerca) è trovare il libro perfetto per ogni visitatore che chiede: "Cerco un'app per fare foto".

Il problema è che il bibliotecario ha due modi per capire quale libro è "giusto":

  1. Il comportamento: Guarda quanti lettori prendono quel libro dallo scaffale e lo comprano (click e download). Questo è facile da contare perché succede milioni di volte.
  2. Il contenuto: Legge la copertina e l'indice per capire se il libro parla davvero di fotografia. Questo è difficile: ci vogliono esperti umani per leggere e giudicare ogni libro, e sono pochi, lenti e costosi.

Il dilemma: Per le ricerche comuni (come "foto"), il bibliotecario ha tantissimi dati sul comportamento. Ma per le ricerche strane o rare (come "come cucinare un piatto con le banane"), quasi nessuno cerca, quindi non ci sono dati sul comportamento. Il bibliotecario rimane al buio e non sa cosa consigliare.

La soluzione: Il "Copista Intelligente" (LLM)

Gli autori di questo paper hanno avuto un'idea brillante: invece di aspettare che gli esperti umani leggano milioni di libri, hanno addestrato un assistente robotico super-intelligente (un Modello Linguistico o LLM) a fare il lavoro degli esperti.

Ecco come hanno fatto, passo dopo passo:

1. Addestrare il robot (Il "Copista")

Hanno preso un robot già intelligente e gli hanno detto: "Ehi, guarda come i nostri esperti umani giudicano i libri. Impara il loro stile".

  • La scoperta sorprendente: Hanno scoperto che non serve un robot gigante e costosissimo (che consuma molta energia). Un robot più piccolo, ma addestrato specificamente sui giudizi umani, è diventato molto più bravo di un robot gigante che non era stato addestrato. È come dire che un cuoco che ha studiato le ricette della nonna è meglio di un robot da 1000 euro che non ha mai cucinato.

2. Creare milioni di etichette (La "Folla")

Una volta addestrato, questo robot ha lavorato giorno e notte. Ha letto milioni di combinazioni "Ricerca + App" e ha scritto milioni di etichette di qualità, dicendo: "Sì, questa app è perfetta per questa ricerca" o "No, non c'entra nulla".
In pratica, hanno trasformato un problema di "scarsità di esperti" in un problema di "abbondanza di dati".

3. Insegnare al Bibliotecario (Il Ranker)

Hanno dato queste milioni di nuove etichette al bibliotecario principale (il sistema di ricerca) per fargli studiare. Ora il bibliotecario non guarda solo cosa la gente fa (click), ma capisce anche cosa significa la ricerca (testo).

Il Risultato: Un Balzo in Avanti

Il risultato è stato doppio, come se il bibliotecario avesse fatto un salto di qualità:

  • Per le ricerche comuni: È diventato ancora più bravo a indovinare cosa vuoi.
  • Per le ricerche rare (la "coda lunga"): Qui è la magia. Per le ricerche strane dove nessuno clicca mai, il robot ha fornito una guida sicura basata sul significato delle parole. Il bibliotecario ha finalmente potuto consigliare app utili anche per ricerche strane.

L'esperimento reale:
Hanno provato questo sistema su tutto il mondo. Risultato? Più persone hanno scaricato le app consigliate (+0,24%). Sembra poco, ma in un sistema così grande è un successo enorme.

In sintesi, con una metafora finale

Immagina di dover allenare un atleta (il sistema di ricerca).

  • Prima: L'atleta si allenava solo guardando le gare passate (dati comportamentali). Se non c'erano gare per un certo sport, non sapeva come muoversi.
  • Dopo: Hanno assunto un allenatore virtuale (l'LLM) che ha studiato tutti i manuali di teoria sportiva. Ora l'atleta ha sia l'esperienza pratica che la teoria.
  • Il vantaggio: L'atleta è diventato più forte in tutto, ma soprattutto è diventato un campione assoluto negli sport di nicchia dove prima non aveva mai praticato.

In parole povere: Hanno usato l'intelligenza artificiale per creare milioni di "esperti virtuali" che hanno insegnato al sistema di ricerca a capire meglio le parole, rendendolo più utile per tutti, specialmente quando non ci sono molti dati su cosa fanno gli utenti.