Memory Caching: RNNs with Growing Memory
Il paper introduce la "Memory Caching", una tecnica che potenzia i modelli ricorrenti memorizzando stati intermedi per aumentare la capacità di memoria in modo scalabile, colmando il divario di prestazioni rispetto ai Transformer nei compiti di richiamo senza sacrificare l'efficienza computazionale.