Quantum-Inspired Self-Attention in a Large Language Model
이 논문은 기존 양자 자기주의 메커니즘이 텍스트 분류에만 국한되었던 것과 달리, GPT-1 의 전체 자동회귀 언어 모델링 파이프라인에 양자에서 영감을 받은 자기주의 (QISA) 를 최초로 통합하여, 추론 시간 2.6 배 증가에 비해 오타율, 단어 오류율, 교차 엔트로피 손실에서 각각 15.5 배, 4.7 배, 13 배의 획기적인 성능 향상을 달성했다고 요약할 수 있습니다.