logo ucas3logo ucas3 w 工程科学学院

吕科教授课题组在第五届中国三维视觉大会荣获Live Demo最佳技术奖

  • 文/裴红娟 图/姚永康
  • 日期:2026-04-23
  • 27

  第五届中国三维视觉大会(China3DV 2026)于2026年4月17日至19日在杭州国际博览中心召开。在大会Live Demo技术展示环节,我校工程科学学院吕科、薛健教授课题组PolyFace-具身仿真人脸机器人项目以绝对的票数力压群雄,一举拿下第一名,荣获“最佳技术奖”

  China3DV 2026由中国图象图形学学会(CSIG)主办,CSIG三维视觉专委会、浙江大学、清华大学共同承办,是国内三维视觉领域最高规格的学术盛会。大会汇聚国内外顶尖专家学者,围绕三维重建、具身智能、人形机器人、数字人技术等前沿方向展开深入研讨。Live Demo是大会的重要环节,旨在为研究团队提供展示最新技术成果、与同行深入交流的宝贵机会,评委从技术创新性、演示效果、应用价值等维度对参会项目进行综合评审。

  本校参会项目PolyFace(PolyFace: A Universal Humanoid Head Platform with Variable Facial Proportions)是一款五官比例可调的仿真人头通用底座,由工程科学学院吕科教授和薛健教授团队的博士生刘青源、博士后裴红娟、博士生范然予、硕士生姚永康等共同参与完成,其核心目标是通过统一硬件环境适配不同脸部模型,达到“一机千面”的效果在硬件层面,PolyFace采用由44组电机构建的高自由度架构保障不同脸部模型下的精准表情控制,为多场景应用提供坚实支撑。在算法层面,PolyFace的核心创新为Morph智塑系统与Emotia驱动引擎:Morph系统支持五官位置及比例连续可调,输入图片或视频可在一分钟内完成换脸建模与舵机解算;Emotia引擎实现外观与硬件解耦驱动,一套算法适配各类脸型,无需额外训练。在感知交互方面,平台集成自研4D Emotion-Talking与情绪理解模型,结合面部动作单元(Action Unit,AU)编码提升情绪感知与表达能力,并通过EMO-TTS实现情感可控语音生成。底层支撑软件采用模型解耦设计,支持本地部署或云端调用多模态大模型,实现了语音、语义、场景多维度输入响应。

  PolyFace采用通用底座与模块化设计,致力于打造表情驱动与人机交互领域的通用平台,大幅降低了仿真机器人头部的研发迭代成本,助力科研团队与中小企业快速构建具身仿生原型,加速仿真机器人从实验室向规模化应用落地

  本次获奖充分体现了我校吕科教授课题组在数字人技术与具身智能领域的创新能力和扎实的技术积累,也是我校在相关学科建设与人才培养方面取得的重要成果。