Resource-Efficient Iterative LLM-Based NAS with Feedback Memory
Il paper propone un metodo efficiente di ricerca neurale (NAS) basato su modelli linguistici di grandi dimensioni (LLM) che, tramite un ciclo chiuso con memoria di feedback storica e l'uso di due LLM specializzati, genera e affina iterativamente architetture di reti neurali convoluzionali adatte alla distribuzione su dispositivi edge, ottenendo risultati significativi su dataset come CIFAR-10 con un singolo GPU consumer senza necessità di fine-tuning dei modelli.