TrainDeeploy: Hardware-Accelerated Parameter-Efficient Fine-Tuning of Small Transformer Models at the Extreme Edge
이 논문은 CNN 과 트랜스포머 모델을 모두 지원하며 LoRA 와 같은 파라미터 효율적 미세 조정 전략을 통해 메모리 및 연산 제약이 심한 극단적 엣지 장치에서도 온디바이스 학습을 가능하게 하는 하드웨어 가속 프레임워크 'TrainDeeploy'를 제안합니다.