一、 立项背景与目标
在智能化矿山掘进作业中,对掘锚机的实时、高精度位姿感知是实现自动导航与安全作业的核心前提。传统方案依赖单一定位技术,存在精度低、可靠性差、环境适应性弱的问题。本项目旨在构建一套集成了机器视觉、激光定位与多源传感器的高精度实时感知系统,核心目标包括:
实现亚像素级高精度感知:通过轻量化视觉模型与激光光斑分析,为位姿解算提供高精度输入。
完成六自由度位姿精准解算:融合视觉、惯性导航等多源信息,实现厘米级定位与亚度级姿态测量。
构建可扩展的监控平台:开发插件化上位机系统,灵活集成UWB、SLAM、环视相机等多种传感器,实现掘锚机状态的可视化实时监控。
二、 软件功能与核心模块
系统由下位机智能感知系统与上位机多源融合平台两大部分构成:
下位机智能感知系统:
功能:负责靶标视觉识别、激光光斑定位与六自由度位姿解算。
核心模块:
轻量化视觉识别模块:基于C++部署的YOLOv5模型,实时识别特定靶标。
激光特征提取模块:采用OpenCV的Blob分析,通过自适应阈值与形态学处理,实现光斑质心亚像素级定位(误差<0.1px)。
位姿解算模块:核心为EPnP算法,融合IMU数据构建优化模型,输出高精度位姿(俯仰/横滚角误差<0.5°,横向精度±2cm)。
上位机多源融合平台:
功能:集成并融合多传感器数据,进行实时可视化展示与监控。
核心模块:
多源数据融合引擎:基于卡尔曼滤波,实时融合UWB(±5cm)、LOAM-SLAM(20Hz)、超声波、360°环视RTSP流、IMU等数据。
Qt插件化框架:基于Qt Plugin机制开发,定义了统一的Google Protobuf数据通信协议与插件管理接口。
设备插件集:包括UWB定位插件、SLAM建图插件、超声波雷达插件、视频流处理插件等,支持热插拔。
三、 业务流程与功能路径描述
下位机高精度位姿解算流程:
图像采集与识别:工业相机捕获现场图像,轻量化视觉识别模块(YOLOv5) 实时检测并框出靶标。
激光光斑定位:激光器投射光斑至靶标,激光特征提取模块对图像进行Blob分析,计算出光斑的亚像素级精确质心坐标。
多源数据融合解算:将靶标框、光斑质心坐标与惯性导航模块(IMU) 的实时角度、加速度数据一同输入位姿解算模块(EPnP)。该模块通过求解欧拉角-平移矩阵联合优化模型,最终输出掘锚机相对于目标的六自由度位姿(包括三维位置与三维姿态角)。
上位机综合监控与数据融合流程:
插件化数据接入:各类传感器(UWB基站、SLAM激光雷达、超声波传感器、环视相机)通过对应的设备插件接入系统。插件将原始数据统一封装为Protobuf格式报文。
中心化数据融合:多源数据融合引擎接收来自各插件的标准报文,以下位机解算的高精度位姿为重要观测值,结合UWB绝对位置、
1. 整体架构与设计思路
系统采用“感知-解算-融合”分层架构,分为下位机智能感知单元与上位机融合监控平台。设计核心是插件化与协议标准化:上位机通过Qt插件框架动态集成多源传感器,并使用Protobuf统一数据格式;下位机专注高精度视觉与激光感知,通过EPnP等算法输出精密位姿。二者协同,实现从亚像素特征提取到全局融合监控的完整闭环。
关键技术栈:
• 上位机(融合平台):Qt 5(C++)框架与Plugin模块、Google Protobuf协议、卡尔曼滤波、OpenCV/OpenGL。
• 下位机(感知单元):YOLOv5(目标检测)、OpenCV(Blob分析、亚像素定位)、EPnP(位姿解算)、C++/嵌入式Linux。
• 数据与通信:自定义TCP/UDP协议、各传感器(UWB、SLAM、超声波、IMU、RTSP流)专用驱动。
2. 我负责的模块与成果
我主导了核心算法的工程化落地与系统框架开发:
• 下位机高精度感知算法实现:将YOLOv5模型部署至嵌入式平台,实现靶标实时识别;基于OpenCV开发激光光斑提取算法,通过自适应阈值与形态学处理达成亚像素级定位(误差<0.1px);融合EPnP与IMU数据构建优化模型,实现六自由度位姿解算(横向精度±2cm,姿态角误差<0.5°)。
• 上位机插件化融合平台开发:基于Qt Plugin设计并实现插件化架构,定义统一设备接口与Protobuf通信协议,支持UWB、LOAM-SLAM、超声波等传感器热插拔,大幅降低系统耦合度与新设备接入成本;集成多源数据并通过卡尔曼滤波实现掘锚机姿态的实时融合与可视化监控。