一项发表于《自然·神经科学》的研究使用生成模型(深度网络从学习的潜在空间合成新图像)让V1、V4和后下颞叶皮层的神经元通过闭环优化引导图像合成。通过比较强调纹理与强调物体结构的模型,研究发现,尽管V1和V4与基于纹理的空间对齐更强,但许多PIT神经元对两种优化图像的反应同样好,揭示其关注共享的局部模式而非整体物体模板,且这种与物体的对齐在其反应后期才出现。这些发现揭示了腹侧通路中的编码原则,并阐明了当前视觉模型的局限性。
研究背景与意义
视觉神经元对从纹理到物体的广泛图像范围作出反应,但连接这些反应的规则仍不清楚。尽管初级视觉皮层中对简单特征的调谐已得到充分证实,但该框架在高级区域失效,那里的神经元编码多样且不可预测的特征。本研究旨在探究神经元优先考虑哪些特征。
主要发现与层级差异
研究通过使用两种具有不同先验的生成模型(纹理优先的DeePSim和物体优先的BigGAN)进行闭环优化,发现V1和V4神经元与纹理空间的对齐更强;而PIT神经元则能同样好地适应两种空间,表明它们编码的是跨物体和纹理共享的局部特征(如边缘、颜色斑块),而非完整的物体模板。时间动态分析显示,PIT神经元对物体图像的反应在后期(>100 ms)更强,而纹理反应则较早出现。此外,在物体空间中成功优化的PIT神经元,其局部调谐曲线呈钟形(高斯型),暗示已接近其偏好的最优特征。
参考文献
(2026). Neuronal tuning aligns dynamically with object and texture manifolds across the visual hierarchy. Nature Neuroscience, 29, 864–875. DOI: 10.1038/s41593-026-02207-1
该研究通过在猕猴V1、V4和PIT皮层进行闭环实验,利用两种生成模型(纹理生成器DeePSim和物体生成器BigGAN)分别优化刺激图像,比较了不同视觉区域神经元对纹理和物体先验的敏感性。研究发现,V1和V4神经元在纹理空间中的优化更成功、更快、峰值激活更高,而PIT神经元在两种空间中表现相当,但其对物体空间的对齐主要发生在反应后期。研究团队来自华盛顿大学等机构。