Computing Evolutionarily Stable Strategies in Multiplayer Games
Die Autoren stellen einen Algorithmus vor, der es ermöglicht, alle evolutionär stabilen Strategien in nichtentarteten Normalformspielen mit drei oder mehr Spielern zu berechnen.
3852 Arbeiten
Die Autoren stellen einen Algorithmus vor, der es ermöglicht, alle evolutionär stabilen Strategien in nichtentarteten Normalformspielen mit drei oder mehr Spielern zu berechnen.
Die Arbeit stellt RadDiff vor, eine neuartige Methode für das inverse Proteinfalten, die durch eine retrieval-augmentierte Denoising-Diffusion externe Proteinwissen effizient integriert und damit bestehende Ansätze in Bezug auf Sequenzwiederherstellungsrate und Skalierbarkeit deutlich übertrifft.
Die Studie stellt ForamDeepSlice vor, ein hochpräzises Deep-Learning-Framework, das auf einem Ensemble von CNN-Architekturen basiert und eine Genauigkeit von 95,64 % bei der automatisierten Klassifizierung von Foraminiferen-Arten aus 2D-Mikro-CT-Schnitten erreicht, wodurch ein neuer Benchmark für die KI-gestützte mikropaläontologische Identifizierung gesetzt wird.
Diese Arbeit stellt einen Ansatz vor, der einen kausalen Foundation-Modell in ein präskriptives Wartungsframework integriert, um durch die Simulation von „Was-wäre-wenn"-Szenarien auf Produktionslinien die Ursachen von Ausfällen zu identifizieren und die Gesamtanlageneffektivität (OEE) durch datengestützte Handlungsempfehlungen zu optimieren.
Die Arbeit stellt AltNet vor, eine Methode, die das Dilemma zwischen Plastizität und Stabilität im Reinforcement Learning durch den Einsatz von zwei sich abwechselnden Twin-Netzwerken löst, wodurch Plastizität ohne die für Sicherheitsanwendungen kritischen Leistungseinbußen bei Parameterrücksetzungen wiederhergestellt wird.
Die Arbeit schlägt einen „Dual Randomized Smoothing"-Ansatz vor, der durch inputabhängige Rauschvarianzen die bisherige Beschränkung globaler Varianzen überwindet und gleichzeitig hohe Genauigkeit bei kleinen und großen Robustheitsradien erreicht.
Die Arbeit stellt Graphectory vor, ein graphenbasiertes Framework zur prozessorientierten Analyse agenter Softwaresysteme, das nicht nur tiefere Einblicke in deren reasoning-Strategien ermöglicht, sondern durch Echtzeit-Überwachung und Interventionen die Lösungsrate von SWE-bench-Problemen signifikant steigert.
Die Arbeit stellt SISR (Sparse Isotonic Shapley Regression) vor, ein einheitliches nichtlineares Erklärungsframework, das durch gleichzeitiges Lernen einer monotonen Transformation zur Wiederherstellung der Additivität und Erzwungung von L0-Sparsity die Verzerrungen herkömmlicher Shapley-Werte bei nicht-additiven Payoffs und hochdimensionalen Merkmalen überwindet.
Die Arbeit stellt den Parallel Decoder Transformer (PDT) vor, eine Architektur, die durch einen planer-gespeisten latenten Arbeitsraum und ein synchronisiertes Multi-Stream-Protokoll die parallele Dekodierung von Sprachmodellen von einer externen Orchestrierung in einen internen Koordinationsmechanismus überführt.
Diese Arbeit stellt den WildRoad-Datensatz und das path-zentrische MaGRoad-Framework vor, um die Herausforderungen der Vektorisierung von Straßen in unwegsamem Gelände zu lösen und dabei sowohl die Genauigkeit als auch die Inferenzgeschwindigkeit im Vergleich zu bestehenden Methoden zu verbessern.
Die Arbeit stellt SALVE vor, ein einheitliches Framework, das durch den Einsatz von Sparse Autoencodern und Grad-FAM zur Validierung eine mechanistische Interpretierbarkeit ermöglicht und präzise, dauerhafte Eingriffe im Gewichtsraum zur kontrollierten Modifikation von neuronalen Netzen erlaubt.
Diese Arbeit bietet eine umfassende Übersicht über die Anpassung agenter KI-Systeme nach dem Pre-Training und gliedert den fragmentierten Forschungsstand in ein vierstufiges Rahmenwerk ein, das Agenten- und Werkzeuganpassung durch Methoden wie Feinabstimmung, Verstärkungslernen und adaptive Speichersysteme zusammenführt.
Die Studie stellt LaMer vor, ein Meta-RL-Framework, das Sprachagenten durch eine cross-episodische Trainingsstruktur und kontextbasierte Reflexion befähigt, aktiv zu explorieren und sich ohne Gradientenupdates an Umgebungen anzupassen, was zu signifikant besseren Leistungen und einer stärkeren Generalisierungsfähigkeit im Vergleich zu herkömmlichen RL-Ansätzen führt.
Der Artikel stellt Re-Depth Anything vor, ein Testzeit-Framework, das durch selbstüberwachtes Nachbeleuchten und Generierung mit Diffusionsmodellen die Tiefenschätzung von Foundation Models wie Depth Anything V2 und DA3 verbessert, indem es den Domänenabstand schließt und gleichzeitig eine Optimierungskollaps verhindert.
Diese Studie zeigt, dass bei Text-zu-SQL-Anwendungen in der Cloud Reasoning-Modelle trotz ähnlicher Genauigkeit signifikant kosteneffizienter sind als nicht-reasoning-Modelle, da die herkömmliche Optimierung nach Ausführungszeit nicht mit den tatsächlichen Verbrauchsgebühren korreliert und nicht-reasoning-Modelle durch ineffiziente Abfragen zu extremen Kostenvarianzen führen können.
Das Paper stellt NeuroSPICE vor, ein physik-informiertes neuronales Netzwerk-Framework, das Differential-Algebraische Gleichungen zur Simulation von Bauelementen und Schaltungen löst und sich durch seine Eignung für Optimierungs- und Inverse-Probleme sowie für die Modellierung neuartiger, stark nichtlinearer Systeme auszeichnet.
Das vorgestellte Conservation-Congruent-Encoding (CCE)-Framework stellt ein substratneutrales physikalisches Modell dar, das Intelligenz als irreversiblen Informationsprozess beschreibt und durch die Verknüpfung von thermodynamischer Dissipation, Quantenmessung und Raumzeit-Geometrie fundamentale Grenzen für natürliche und künstliche Intelligenz ableitet.
Diese Studie stellt einen operatorfreundlichen Evaluierungsrahmen für die Netzlastprognose vor, der zeigt, dass herkömmliche Genauigkeitsmetriken Sicherheitsrisiken verschleiern, und demonstriert, wie durch explizite Wetterintegration und bias-konstrainte Optimierungsziele die Zuverlässigkeit von State-Space-Modellen und Transformern in sicherheitskritischen Energiesystemen verbessert wird, ohne in triviale Überprognosen zu verfallen.
Das Paper stellt DrivingGen vor, den ersten umfassenden Benchmark für generative Weltmodelle im autonomen Fahren, der durch eine diverse Datensammlung und neue Metriken die Bewertung von visueller Realitätsnähe, Trajektorienplausibilität, zeitlicher Kohärenz und Steuerbarkeit ermöglicht, um die Entwicklung zuverlässiger und einsatzfähiger Simulationswerkzeuge zu fördern.
Die Arbeit stellt Batch-of-Thought (BoT) vor, eine trainingsfreie Methode, die durch die gemeinsame Verarbeitung verwandter Abfragen in einem Multi-Agenten-Architektur-Setups die reasoning-Fähigkeiten von LLMs verbessert, Fehler durch Konsistenzprüfungen erkennt und die Inferenzkosten signifikant senkt.