Learning Transferable Sensor Models via Language-Informed Pretraining
Die Arbeit stellt SLIP vor, ein Open-Source-Framework für das vortrainierte Lernen sprachbasieter Sensorrepräsentationen, das durch kontrastives Alignment und sensorbedingte Bildunterschriften eine überlegene semantische Generalisierung und flexible Anpassung an verschiedene Sensor-Konfigurationen ermöglicht.