Scaling Search Relevance: Augmenting App Store Ranking with LLM-Generated Judgments

Ce papier présente une méthode augmentant la pertinence de la recherche sur l'App Store en générant des millions d'étiquettes de pertinence textuelle via un modèle de langage spécialisé, ce qui améliore significativement les métriques hors ligne et le taux de conversion lors d'un test A/B mondial, en particulier pour les requêtes peu fréquentes.

Evangelia Christakopoulou, Vivekkumar Patel, Hemanth Velaga, Sandip Gaikwad, Sean Suchter, Venkat Sundaranatha

Publié Tue, 10 Ma
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Imaginez que l'App Store d'Apple est une immense bibliothèque numérique contenant des millions de livres (les applications). Votre mission, en tant que bibliothécaire géant, est de trouver le livre parfait pour chaque visiteur qui demande quelque chose.

Ce papier de recherche raconte comment Apple a utilisé une nouvelle technologie (l'Intelligence Artificielle) pour devenir un bibliothécaire encore plus efficace, surtout quand les visiteurs demandent des choses très rares.

Voici l'histoire expliquée simplement :

1. Le Problème : Trop de clics, pas assez d'avis d'experts

Pour savoir si un livre est bon, vous avez deux façons de le juger :

  • Le comportement (ce que font les gens) : Si des milliers de personnes empruntent et aiment un livre, c'est probablement un bon choix. C'est facile à compter : on a plein de données là-dessus.
  • Le texte (ce que dit le livre) : Si quelqu'un cherche "recette de gâteau au chocolat", le livre doit réellement parler de gâteaux au chocolat. Pour juger cela, il faut des experts humains qui lisent les titres et les descriptions.

Le souci : Les experts humains sont lents et chers. On a des millions de données sur les "clics", mais très peu d'avis d'experts sur le "texte". C'est comme avoir un restaurant où on connaît exactement ce que les gens commandent, mais où le chef ne sait pas vraiment si les plats correspondent aux ingrédients annoncés sur la carte.

2. La Solution : Un "Juge Robot" ultra-spécialisé

Apple a décidé d'utiliser une Intelligence Artificielle (un LLM) pour aider les experts humains. L'idée était de demander à l'IA : "Voici une recherche et une application, dis-moi si elles correspondent bien."

Mais attention, ils n'ont pas juste pris un robot générique très puissant (comme un éléphant très intelligent mais lent). Ils ont pris un robot plus petit et l'ont entraîné spécifiquement avec les notes des experts humains.

L'analogie du Chef :
Imaginez que vous avez un grand chef étoilé (le gros modèle pré-entraîné) et un apprenti (le petit modèle).

  • Si vous laissez le grand chef deviner, il fait des erreurs car il ne connaît pas vos règles précises.
  • Si vous prenez l'apprenti et que vous lui montrez exactement comment le grand chef note les plats pendant des mois, l'apprenti devient un expert de vos règles spécifiques.
  • Résultat : L'apprenti entraîné (le modèle "Fine-tuned") devient bien meilleur que le grand chef générique pour cette tâche précise, et il travaille beaucoup plus vite !

3. L'Action : Créer des millions de notes

Grâce à ce "Juge Robot" entraîné, Apple a pu générer des millions de nouvelles notes de qualité. C'est comme si l'apprenti avait lu des millions de livres en une nuit et avait noté chaque correspondance entre la recherche et le livre.

Ils ont ensuite mélangé ces nouvelles notes avec les anciennes données de clics pour réentraîner le système de classement de l'App Store.

4. Le Résultat : Gagner sur tous les tableaux

Habituellement, en optimisant un système, on doit faire un choix : soit on améliore la pertinence des clics, soit on améliore la pertinence du texte, mais rarement les deux en même temps. C'est comme essayer de courir plus vite tout en portant un sac de pierres : on perd de la vitesse.

Ici, l'ajout de ces millions de notes a permis de repousser les limites.

  • Les résultats sont plus pertinents par rapport au texte (le robot a bien compris le sens).
  • Les gens cliquent et téléchargent plus souvent (le comportement s'améliore aussi).
    C'est comme si le bibliothécaire avait trouvé un moyen de courir plus vite tout en portant un sac plus léger !

5. La Magie pour les "Recherches Oubliées" (Tail Queries)

C'est le point le plus important. Pour les recherches très populaires (comme "jeux de course"), le système fonctionne déjà très bien car il y a beaucoup de données de clics.

Mais pour les recherches bizarres ou rares (comme "application pour compter les feuilles d'érable en automne"), il n'y a presque personne qui clique. Le système est souvent perdu.
Grâce aux notes du "Juge Robot", le système comprend maintenant le sens de ces recherches rares, même sans données de clics.

  • Résultat : L'amélioration est énorme pour ces recherches rares. C'est comme si le bibliothécaire, qui ne connaissait pas ces livres rares, avait soudainement lu leur résumé et savait exactement où les ranger.

En résumé

Apple a utilisé une Intelligence Artificielle entraînée par des humains pour créer des millions de "notes de qualité" gratuites. Cela a permis d'améliorer la recherche sur l'App Store, non seulement pour les recherches courantes, mais surtout pour celles que personne ne trouvait auparavant.

Le gain final ? Une légère augmentation du nombre de téléchargements (+0,24%), ce qui, à l'échelle mondiale d'Apple, représente des millions d'utilisateurs satisfaits qui ont enfin trouvé exactement ce qu'ils cherchaient.