Learning Transferable Sensor Models via Language-Informed Pretraining
El artículo presenta SLIP, un marco de preentrenamiento de código abierto que alinea representaciones de sensores con el lenguaje mediante un embebido de parches flexible y un modelo de lenguaje preentrenado, logrando un rendimiento superior en transferencia cero, descripción de señales y preguntas sobre sensores a través de configuraciones y resoluciones temporales diversas.