Parallel Split Learning with Global Sampling
El artículo presenta GPSL, un esquema impulsado por el servidor para el aprendizaje dividido paralelo que fija el tamaño del lote global mediante muestreo global sin reemplazo, eliminando sesgos de redondeo y estabilizando el entrenamiento en entornos no IID para lograr una precisión similar a la centralizada sin aumentar la carga computacional.