k-hop Fairness: Addressing Disparities in Graph Link Prediction Beyond First-Order Neighborhoods

Cet article propose une nouvelle notion de « k-hop fairness » pour la prédiction de liens, qui évalue et atténue les disparités structurelles au-delà des voisinages immédiats en dépassant les limites de l'équité dyadique grâce à des stratégies de mitigation pré- et post-traitement.

Lilian Marey, Tiphaine Viard, Charlotte Laclau

Publié 2026-03-05
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🌍 Le Problème : La "Bulle" des Amis

Imaginez que vous êtes sur un réseau social géant, comme Facebook ou LinkedIn. Vous cherchez à faire de nouvelles connaissances. L'algorithme qui vous suggère des amis fonctionne un peu comme un météorologue : il regarde votre historique et vous dit : "Tu as 90 % de chances d'aimer cette personne".

Le problème, c'est que dans la vraie vie, nous avons tendance à nous lier d'amitié avec des gens qui nous ressemblent (même origine, même genre, mêmes opinions). C'est ce qu'on appelle l'homophilie.

Si l'algorithme se contente de suivre cette tendance, il crée une bulle de filtre. Il vous propose uniquement des gens qui vous ressemblent déjà. Résultat ? Les groupes différents ne se rencontrent jamais, et les inégalités sociales se renforcent. C'est comme si un restaurant ne servait que des plats que vous avez déjà mangés, vous empêchant de découvrir de nouvelles saveurs.

🛑 La Solution Actuelle (et ses limites)

Jusqu'à présent, les chercheurs ont essayé de corriger cela avec une règle simple appelée "Équité Dyadique".

  • L'idée : "Pour chaque personne du groupe A, on doit lui proposer autant d'amis du groupe B que de personnes du groupe A."
  • La métaphore : C'est comme un serveur qui s'assure que chaque table reçoit le même nombre de plats.

Mais il y a un gros défaut : Cette règle ne regarde que qui est assis à la table, pas se trouve la table dans le restaurant.
Imaginez un restaurant où certaines tables sont au centre, très proches du chef et des autres tables, tandis que d'autres sont cachées dans un coin sombre, loin de tout le monde.
Si le serveur donne un plat à tout le monde de manière égale, il ignore le fait que les gens du coin sombre n'ont toujours pas accès à l'information ou aux opportunités. L'algorithme actuel traite tout le monde de la même façon, même si leur position dans le réseau est très différente.

💡 La Nouvelle Idée : La "Justice à k-sauts" (k-hop Fairness)

Les auteurs de ce papier proposent une nouvelle façon de voir les choses : la "Justice à k-sauts".

Imaginez que le réseau social est une ville.

  • 1 saut (k=1) : Ce sont vos voisins immédiats (vos amis directs).
  • 2 sauts (k=2) : Ce sont les amis de vos amis.
  • 3 sauts (k=3) : Ce sont les amis des amis de vos amis.

La nouvelle méthode dit : "Ce n'est pas juste de donner des amis à tout le monde. Il faut s'assurer que chaque personne, où qu'elle soit dans la ville, ait accès à des gens différents, que ce soit à 1 saut, à 2 sauts ou à 3 sauts."

C'est comme vérifier que non seulement votre rue est diverse, mais aussi que les rues voisines, et celles d'après, le sont aussi. Cela permet de détecter des inégalités cachées que l'ancienne méthode ne voyait pas. Par exemple, un groupe de personnes peut être bien connecté à 1 saut, mais totalement isolé à 3 sauts. La nouvelle méthode repère ce problème.

🛠️ Comment ils réparent le système ?

Les chercheurs ont créé deux outils pour corriger ces injustices, un peu comme des architectes qui réaménagent la ville :

  1. Avant la construction (Pré-traitement) : Ils modifient la carte de la ville (le graphe) en ajoutant des ponts ou des routes entre des quartiers qui ne se parlaient pas, pour équilibrer la structure même du réseau.
  2. Après la construction (Post-traitement) : C'est leur méthode préférée. L'algorithme fait ses prédictions comme d'habitude, puis un "régleur" intervient. Il regarde les suggestions faites à distance (par exemple, à 2 ou 3 sauts) et ajuste légèrement les recommandations pour s'assurer que les groupes isolés reçoivent enfin des suggestions de personnes différentes, sans trop gâcher la qualité des prédictions.

📊 Ce qu'ils ont découvert (Les Résultats)

En testant leur méthode sur de vrais réseaux (blogs politiques, Facebook, réseaux d'auteurs), ils ont vu trois choses importantes :

  1. Les biais sont partout : Les modèles actuels reproduisent les inégalités non seulement entre amis directs, mais aussi à plusieurs "sauts" de distance.
  2. Tout est lié : Si vous essayez de réparer le réseau à 1 saut, cela change souvent la situation à 2 ou 3 sauts. C'est comme tirer une ficelle : tout le tissu bouge. Il faut donc être très précis.
  3. Leur méthode fonctionne : Leur outil de "réglage après coup" réussit à rendre le réseau plus juste (plus de diversité dans les suggestions) sans trop sacrifier la qualité des prédictions. C'est un bon compromis.

🎯 En résumé

Ce papier nous dit que pour être vraiment juste, il ne suffit pas de mélanger les gens de manière globale. Il faut regarder la distance entre eux.

C'est comme organiser une grande fête : ce n'est pas juste de mettre tout le monde dans la même pièce. Il faut s'assurer que les gens qui sont dans le coin le plus reculé de la salle ont aussi la possibilité de discuter avec les gens du groupe principal, et ce, à différentes distances. C'est une façon plus fine et plus humaine de concevoir l'intelligence artificielle.