新方法显著提升三维形貌重建精度
新方法显著提升三维形貌重建精度
记者近日从山西大学获悉,该校大数据科学与产业研究院教授钱宇华带领的演化数据智能团队在通用三维形貌重建领域取得重要科学发现,相关论文日前发表于国际人工智能领域顶级期刊《IEEE模式分析与机器智能汇刊》。
论文第一作者、山西大学大数据科学与产业研究院副教授闫涛介绍,团队首次从理论上证明了三维形貌重建多视图融合类方法的一种泛化误差界。一般认为,多视图融合性能依赖于多视图互补性,而团队此次研究发现,跨尺度多视图融合类任务性能依赖于多视图一致性,多视图之间的一致性越大,重建泛化误差界越小。
随着智能制造、虚拟现实等技术的发展,宏观/微观跨尺度三维形貌重建面临三大挑战:一是成像特征差异大,宏观场景与微观场景难以统一建模;二是现有深度学习方法泛化能力不足,难以适应复杂实际场景;三是传统方法在序列图像关联特征提取方面存在缺陷,时空信息利用不充分制约了精度提升。
针对上述挑战,本研究创新性地提出了序列关联引导的通用三维形貌重建框架SAS,揭示了多视图一致性对提升重建精度的关键作用,理论上获得了一种更紧的泛化误差界,为宏观/微观跨尺度重建提供了理论保障。在方法方面,该研究通过构建序列关联机制,实现了宏观场景语义信息与微观场景细节特征的有机融合,突破了传统方法在跨尺度重建中的局限性。同时,该研究还显著提升了宏观场景的重建质量,更将三维重建精度推进至亚微米级光学成像极限,为精密制造、生物医学等领域的微观测量提供了新技术手段。
研究在多个宏观与微观数据场景中进行了实验验证,结果表明SAS框架不仅优于先进的模型设计类聚焦形貌恢复(SFF)方法,而且在泛化性方面优于主流的深度学习类SFF方法,特别是在开放世界的宏观/微观场景中表现出卓越适应性。
沈佳
山西日报、山西晚报、山西农民报、山西经济日报、山西法制报、山西市场导报所有自采新闻(含图片)独家授权山西新闻网发布,未经允许不得转载或镜像;授权转载务必注明来源,例:"山西新闻网-山西日报 "。
凡本网未注明"来源:山西新闻网(或山西新闻网——XXX报)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。