Highly Efficient and Effective LLMs with Multi-Boolean Architectures
Deze paper introduceert een nieuw kader dat Large Language Models vertegenwoordigt met multi-kern Boolese parameters, waardoor voor het eerst directe finetuning in het Boolese domein mogelijk is zonder latente gewichten, wat leidt tot een aanzienlijke vermindering van complexiteit en een verbeterde prestatie vergeleken met bestaande binaire en kwantisatie-methoden.