课题组专注于医学视觉智能前沿研究,致力于构建从“精准感知”到“认知推理”再到“决策协同”的全流程方法与技术体系。针对医学图像的跨模态异质性、手术场景的动态性及临床决策的高可靠性需求,研究医学多模态大模型、自监督表征学习与可控视觉生成方法,通过融合多源医疗大数据,为智能辅助诊断、手术规划导航及临床决策支持提供核心算法支撑,赋能临床实现“看的准”、“想的透”、“做得好”。
(1) 多模态精准感知:研究基于多模态医学数据协同的鲁棒视觉感知方法,突破单一视觉数据在复杂医学场景下(如出血、烟雾、遮挡)的感知局限,实现复杂场景医学目标准确定位、分割与识别;
(2) 跨模态深度推理:建立医学视觉特征与医学语义特征的关联映射,突破传统“端到端”黑盒模型的局限,实现多模态逻辑锚点引导的深度推理;
(3) 全流程协同优化:研究手术场景时空动态演化建模,突破术前静态规划模型与术中复杂动态环境的非线性偏移,建立个性化精准手术导航与评估。