由地震、滑坡、塌方等掩埋事故造成的视觉感知障碍对受困人员的搜索和定位造成阻碍。除了事故现场的不利因素,需要解决的难点还有很多。
常用的搜救方式包括人工搜索、动物搜索和仪器搜索,常用的仪器有可视生命探测仪、红外生命探测仪、声波振动探测仪、雷达生命探测仪等。但这三种搜救方式还存在一些缺陷,在极端环境中可能无法查看内部被困人员,使搜救难上加难。
为了确保最佳救援时机、提升搜救和生还率,陶虎团队依托国家科技创新2030“新一代人工智能”重大项目,对受困人员的识别与救援需求开展研究。
星鼻鼹鼠长期生活在地下,其视觉和听觉逐渐退化,并进化出围绕在鼻孔四周的星状触手,巧妙地把触觉跟嗅觉集中在一起,帮助其捕猎或判断危险。该团队受“触嗅融合”感知启发,将MEMS嗅觉、触觉柔性传感器阵列与多模态机器学习算法融合,构建了触嗅一体智能机械手。
硅基MEMS气体传感器灵敏度超越人类1个数量级,压力传感器探测限也超越人类1个数量级。这两种优异性能使得机械手手指触摸物体后可准确获取其局部微形貌、材质硬度和整体轮廓等关键特征,掌心可同步嗅出物体“指纹”气味。经过仿生触嗅联觉 (BOT) 机器学习神经网络实时处理,最终完成识别人体、确认部位、判断掩埋状态、移开障碍物、闭环救援。
研究人员通过到一线消防救援单位实地调研,真实还原构建人体被瓦砾石堆覆盖的掩埋场景,在此环境下对包括人体在内的11种典型物体进行识别,触嗅联觉识别准确率达96.9%,较单一感觉提升了15%。
此外,面对在实际救援中常见的存在干扰气体或器件部分损坏等情况,通过多模态感知的互补和神经网络的快速调节,该系统仍保持超过80%的良好准确率。