LaVCa: LLM-assisted Visual Cortex Captioning
O artigo apresenta o LaVCa, uma abordagem baseada em modelos de linguagem grandes (LLMs) que gera legendas em linguagem natural para descrever com maior precisão e detalhe a seletividade de voxels no córtex visual humano, superando métodos anteriores e revelando diferenciações funcionais de alta granularidade.