QiMeng-CodeV-SVA: Training Specialized LLMs for Hardware Assertion Generation via RTL-Grounded Bidirectional Data Synthesis

Die Arbeit stellt QiMeng-CodeV-SVA vor, ein Framework zur Synthese von Trainingsdaten durch RTL-gestützte bidirektionale Übersetzung, mit dem spezialisierte Modelle entwickelt wurden, die bei der Generierung von SystemVerilog-Assertions aus natürlicher Sprache (NL2SVA) fortschrittliche LLMs übertreffen.

Yutong Wu, Chenrui Cao, Pengwei Jin, Di Huang, Rui Zhang, Xishan Zhang, Zidong Du, Qi Guo, Xing Hu

Veröffentlicht 2026-03-17
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie bauen ein riesiges, hochkomplexes Schloss aus Legosteinen. Das ist ein Computerchip (Hardware). Bevor Sie das Schloss in die reale Welt schicken, müssen Sie sicherstellen, dass es nicht einstürzt, wenn jemand versehentlich an einem falschen Stein zieht.

In der Welt der Chip-Entwicklung nennt man diese Sicherheitsregeln Assertions (Sicherheitsprüfungen). Sie werden in einer sehr strengen, fast wie eine Fremdsprache wirkenden Sprache geschrieben, die SystemVerilog Assertions (SVA) heißt.

Das Problem: Ingenieure müssen diese Regeln mühsam von Hand schreiben. Das ist wie wenn Sie jeden einzelnen Stein in einem 100-stöckigen Gebäude einzeln mit einem Lineal vermessen müssten. Es dauert ewig und ist fehleranfällig.

Künstliche Intelligenz (KI) könnte helfen, aber bisher waren die KIs zu „dumm" für diese spezielle Aufgabe. Sie waren wie Generalisten, die alles können, aber nichts wirklich perfekt beherrschen. Wenn man sie fragte: „Baue eine Regel, damit das Licht angeht, wenn der Schalter gedrückt wird", antworteten sie oft mit Unsinn oder falscher Syntax, weil ihnen das tiefe Verständnis für die Bausteine fehlte.

Hier kommt das Papier QiMeng-CodeV-SVA ins Spiel. Die Forscher haben eine clevere Methode entwickelt, um eine spezialisierte KI zu trainieren. Man kann sich das in drei Schritten vorstellen:

1. Der riesige Bauplan-Schatz (RTL-Grounded Synthesis)

Statt nur ein paar alte Lehrbuchbeispiele zu nutzen (was wie das Lernen aus einem verstaubten Wörterbuch wäre), haben die Forscher einen riesigen Berg an echten, offenen Bauplänen (RTL-Code) gesammelt.

  • Die Analogie: Stellen Sie sich vor, Sie wollen einen Kochkurs für „echte Gerichte" geben. Statt nur Rezepte aus einem alten Buch zu nehmen, gehen Sie in eine riesige Küche, wo tausende echte Gerichte zubereitet werden. Sie lassen eine KI diese Gerichte beobachten und dann beschreiben: „Was passiert hier? Wenn das Wasser kocht, muss der Deckel drauf."
  • Die KI hat also Millionen von echten Schaltungen analysiert und daraus automatisch Sicherheitsregeln abgeleitet. Das hat den Datensatz von winzigen 4.000 Beispielen auf über 100.000 erweitert.

2. Der Spiegel-Test (Bidirectional Data Synthesis)

Das war der genialste Trick. Eine KI kann manchmal lügen oder Dinge missverstehen. Wie erkennt man das?

  • Die Analogie: Stellen Sie sich vor, Sie geben einer KI eine Regel auf Deutsch: „Das Licht geht an, wenn der Schalter gedrückt wird." Die KI schreibt eine Regel in der strengen SVA-Sprache.
    • Jetzt nehmen wir diese SVA-Regel und geben sie einer anderen KI (oder derselben) zurück, mit der Aufgabe: „Erkläre mir diese Regel wieder auf Deutsch."
    • Wenn die KI zurück auf Deutsch sagt: „Das Licht geht an, wenn der Schalter gedrückt wird", dann war die Übersetzung korrekt.
    • Wenn sie aber sagt: „Das Licht geht an, wenn der Schalter los gelassen wird", dann hat die KI einen Fehler gemacht.
  • Die Forscher haben diesen „Hin-und-Her-Test" (Bidirectional Translation) millionenfach durchgeführt. Nur die Paare, die sich am Ende genau entsprachen, wurden als „wahr" und gut für das Training ausgewählt. Das hat viele schlechte Beispiele aussortiert, die sogar von formellen Prüfprogrammen als „korrekt" durchgewunken wurden, aber inhaltlich Unsinn waren.

3. Der Spezialist entsteht (Training)

Mit diesem riesigen, sauberen Datensatz haben sie eine KI (basierend auf dem Modell Qwen) trainiert.

  • Das Ergebnis: Diese neue KI, CodeV-SVA, ist wie ein Meister-Handwerker, der nur für Sicherheitsregeln ausgebildet wurde.
  • Sie ist nicht nur schneller, sondern auch genauer als die teuersten, allgemeinen KI-Modelle (wie GPT-5 oder DeepSeek-R1), die man sonst kaufen müsste.
  • In Tests schaffte sie es, in über 75% der Fälle die perfekte Regel auf Anhieb zu schreiben, während die großen, allgemeinen KIs oft nur bei 60-70% lagen.

Warum ist das wichtig?

Früher musste man für diese Aufgabe riesige, teure KI-Modelle mieten oder Jahre an Daten sammeln. Jetzt haben die Forscher gezeigt, dass man mit einer cleveren Methode (dem Spiegel-Test und echten Bauplänen) eine kleine, spezialisierte KI bauen kann, die besser ist als die Riesen.

Zusammengefasst:
Die Forscher haben eine KI nicht einfach nur mit mehr Daten gefüttert, sondern ihr beigebracht, sich selbst zu überprüfen. Sie haben aus einem Berg roher Baupläne eine Bibliothek perfekter Sicherheitsregeln gezaubert. Das Ergebnis ist ein digitaler Sicherheitsinspektor, der billiger, schneller und genauer ist als alles, was es vorher gab. Das bedeutet sicherere Computerchips für unsere Smartphones, Autos und Server – und das alles dank einer KI, die gelernt hat, nicht nur zu reden, sondern auch zu verstehen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →