AraModernBERT: Transtokenized Initialization and Long-Context Encoder Modeling for Arabic
Dit paper introduceert AraModernBERT, een voor het Arabisch aangepaste encoder-only transformer die door middel van transtokenized initialisatie en native lange-contextmodellering tot 8.192 tokens aanzienlijke prestatieverbeteringen boekt op zowel taalmodellering als diverse downstream-taken.