启智MANI机器人
启智MANI是一款专门用于移动抓取教学的机器人平台。其拥有麦克纳姆轮全向移动底盘、硬件里程计、激光测距雷达、立体视觉相机、四自由度机械臂等一系列配置。机载计算单元集成384枚GPU硬件加速器,具有极强的三维图形处理和神经网络运算能力。所有实验例程基于ROS机器人操作系统,实验内容覆盖ROS的Navigation、MoveIt、OpenCV、PCL等多个子系统和函数库,完整实现环境建图、定位导航、运动学规划、机器视觉和三维感知等经典技术。除了基于硬件实体的现场实验,还特别设计了基于Gazebo的软件仿真实验,非常适合移动抓取机器人技术的教学和研究。
底盘系统
启智MANI机器人底盘为麦克纳姆轮四驱结构,具备360°全向移动特性。减震系统采用针对麦克纳姆轮进行特别优化的增强型麦弗逊独立悬挂,相较于传统麦弗逊,具有更强的轮面稳定性,确保麦克纳姆轮与地面的接触角度,在提高越障能力的同时,依然保持了全向运动的位移精度。
激光雷达
启智MANI机器人使用新版本的RPLIDAR激光雷达。相较于旧版本,在360°全方向扫描障碍物的同时,具备更高的采集频率和更远的探测距离,进一步增强了机器人的环境探测能力和运动避障性能。
机械臂
启智MANI机器人搭载了一台OpenManipulator-X机械臂。该机械臂运动轻巧灵活,每个关节都具备位置环和电流环控制功能,可通过总线通讯精确反馈每个关节的当前角度。结合ROS的MoveIt!子系统,可以轻松实现机械臂的运动学正反解,快速精准的完成各种物体抓取和放置任务。
GPU硬件加速
启智MANI机器人的主控计算机,使用NVIDIA新推出的Jetson Xavier NX运算单元,在保持车体结构紧凑的同时,带来了强大计算性能。Jetson Xavier NX内置 384 枚 CUDA 硬件运算核心、48 个 Tensor Core 和 2 个 NVDLA 引擎,具备21 TOPS 的计算加速能力。如此强悍的性能,让其可以并行运行多个现代神经网络,并同时处理来自多个传感器的高分辨率数据。
三维视觉系统
启智MANI机器人的视觉系统,使用微软新推出的第四代Azure Kinect立体相机。该相机集成了深度,视觉,声音和方向四大类传感器,其中包括100万像素TOF深度传感器、1200万像素RGB彩色摄像头、7麦克风圆形阵列和6轴惯性测量单元IMU。三维视觉分辨率比上一代Kinect提高了四倍,探测范围扩大了50%,配合强大的GPU计算能力,可以更快更精确的识别、定位和追踪目标物体。
参数列表
整机参数 |
|
整体重量 |
20KG |
底盘负载 |
50KG |
运动性能 |
最高速度1.5m/s,最大推力80牛。 |
驱动方式 |
全向麦克纳姆轮 |
尺寸 |
长568mm宽426mm高655mm |
电控系统 |
分布式控制系统,采用总线通讯方式,每个动力单元配备独立高精度伺服系统。 |
机械结构 |
模块化框架设计,机械扩展性强,维修和改装方便。特别设计的悬挂减震系统,具有优秀的运动稳定性。 |
主体材质 |
高级航空铝数控加工底盘,高强度合金骨架,部分承力结构使用钢制材料。 |
运算单元 |
|
硬件性能 |
|
通讯接口 |
|
其他外设 |
|
操作系统 |
ROS Noetic / Ubuntu 20.04 |
动力系统 |
|
总线系统 |
|
电机 |
|
麦克纳姆轮 |
|
底盘结构 |
|
悬挂结构 |
增强型麦弗逊独立悬挂,相较于传统麦弗逊,具有更强的轮面稳定性。 |
横向轮距 |
横向轮距360mm,采用多连杆稳定设计,越障时轮距变化不超过1.2mm。 |
纵向轮距 |
纵向轮距400mm,具有较强的越障平稳性,越障高度20mm。 |
机械手臂 |
|
自由度 |
4 |
臂长 |
380mm |
自身重量 |
700G |
末端负载 |
500G |
夹持范围 |
20mm~75mm |
配套资源 |
提供完整的运动模型资料,附带运动学函数接口,可以在ROS系统中直接进行运动学规划。 |
激光雷达 |
|
扫描范围 |
360° |
探测距离 |
12m |
测距精度 |
0.3cm |
扫描精度 |
0.9° |
立体相机 |
|
成像技术 |
采用第四代TOF技术 |
最大分辨率 |
4096×3072 |
横向视角 |
120° |
纵向视角 |
120° |
最大帧率 |
30 fps |
加速度计 |
内置3轴加速度计 |
陀螺仪 |
内置3轴陀螺仪 |
接口 |
USB 3.0 |
电源 |
|
电池 |
1. 进口优质锂离子电池,输出电压24V,容量10.5AH。模块化全密封结构,具有能量密度高、放电能力强、安全性高的特点; 2. 电池模块配备独立保护电路,具有过充、过放、过流及短路保护功能; 3. 放电电流20A,放电功率480W,充电时间2.5小时。 |
软件功能
1. URDF模型描述——启智MANI机器人具备完整的URDF模型描述,可以在ROS系统里直接加载。
2. 三维立体视觉——启智MANI机器人采用第四代的TOF立体相机,探测距离达到12米,最大视角120°,适用于对室内环境的三维模型重构。
3. SLAM环境建图——启智MANI机器人装备了新一代360°激光雷达,可以实时扫描机器人周围的障碍物分布状况,借助HectorSLAM和GMapping算法,创建环境地图。
4. 自主定位导航——启智MANI机器人将激光雷达扫描的距离信息与电机里程计数据进行融合,使用AMCL方法进行地图定位,结合ROS的move_base进行自主导航。
5. 机械臂运动学——启智MANI机器人可使用MoveIt!子系统对机械臂进行运动学正反解计算,并完成运行路径的自动规划。
6. 物品抓取——启智MANI机器人通过立体相机获得三维点云,对点云中的物品进行检测、匹配和轮廓辨识,计算每个物品的外形尺寸和三维空间坐标。然后使用机械臂完成物品抓取操作。
7. 多机器人系统——启智MANI机器人可以多台实现相互配合协作。基于ROS开发的群体决策模型,拥有任务分解、效用考核、角色分配、行为同步等多个层级的系统架构,能够很好的协调多个机器人协同完成复杂任务。
8. GAZEBO仿真系统——启智MANI机器人的模型文件具备完整的物理惯量和传感器配置描述,可以在GAZEBO仿真环境里直接加载。附赠的源码资源中,包含多个物理仿真场景,可以脱离机器人实体,在纯软件环境中进行算法模拟。
教学资源
-
启智MANI机器人配备实验指导书,设计了22个课程实验,所有实验均进行了详细实验步骤图文描述,方便用户老师进行课程编排。
实验一、初识ROS |
实验十二、彩色图像中的二维码识别 |
实验二、Node、Topic和Launch文件 |
实验十三、立体视觉的数据获取 |
实验三、速度控制Node的编程实现 |
实验十四、基于立体视觉的平面识别 |
实验四、激光雷达的数据获取 |
实验十五、基于立体视觉的物体定位 |
实验五、ROS的SLAM建图系统 |
实验十六、机械臂关节控制的编程实现 |
实验六、ROS的Navigation导航系统 |
实验十七、机械臂MoveIt!运动规划 |
实验七、导航控制Node的编程实现 |
实验十八、机械臂的运动学正解 |
实验八、MapTools插件的使用 |
实验十九、机械臂的运动学逆解 |
实验九、彩色相机的数据获取 |
实验二十、物品的识别和抓取 |
实验十、基于平面视觉的特征提取 |
实验二十一、基于任务脚本的多点巡航 |
实验十一、基于平面视觉的目标跟踪 |
实验二十二、移动抓取机器人综合实训 |
-
产品附赠所有实验的参考课件PPT,助力老师快速开课。
-
产品附带源码完全开放,支持进一步的扩展开发。
综合实训
随着人民生活水平的不断提高,绿色生态、健康环保的生活方式开始逐渐被重视。尤其是垃圾分类处理的政策实施,在减少城市垃圾产出,改善市容街道环境方面取得了巨大成效。
为了将“新基建”的理念贯彻到垃圾分类处理的事业中,进一步提高垃圾分类的质量和效率,我们专门设计了垃圾分拣机器人这么一个综合实训项目。用人工智能、环境建模、定位导航等技术手段进一步提高垃圾分类过程的自动化水平,真正达到环保高效并且能够大范围复制推广的目的,为我国人民的生活质量改善贡献一份努力。该实训项目要求机器人运行在一个模拟公共场所的场景中,自动进行巡逻导航。在不触碰损坏公共设施的前提下,搜集场景中的垃圾物品,并将其投入对应颜色的分类垃圾箱内。
实训场景示意图
启智MANI机器人搜集环境中的垃圾物品
启智MANI机器人将垃圾物品投入相应分类的垃圾箱
在综合实训中,充分运用了启智MANI机器人的建图导航和视觉抓取等多种技能。很好的将机器人课程中的分散的独立知识点进行了融合贯通,让学生真正做到学以致用,学之能用,最大程度的投入到机器人各项技术的学习实践中来,为将来在人工智能行业的就业和学术研究奠定一个坚实的基础。