激光雷达+视觉SLAM


激光雷达的优点是能提供准确的距离信息,同时因为激光雷达是自身发光,所以激光雷达能够在完全黑夜的环境中工作。激光雷达的缺点是采样点比较稀疏(比如某些单线激光雷达一个scan只有360个测量点),同时由于激光雷达SLAM方法取决于对齐几何点云,在几何退化场景中(例如长直的隧道)可能会导致SLAM失败。

摄像头能提供丰富的环境信息(RGB)并且信息相对比较稠密(比如普通单目摄像头能提供640*480的像素点的图像信息)。摄像头的缺点是对环境照明条件敏感,比如在黑暗的环境中无法工作。同时在没有特色的环境,如阴天,地面积雪,全白色的墙,也会导致基于视觉的SLAM陷入困境。

眸视科技支持激光雷达+视觉融合SLAM方案,也就是在 SLAM中同时使用激光雷达与摄像头进行定位成图与导航。

产品介绍

  • 产品硬件:
    单目摄像头,多线激光雷达(16线,
    室外要求测距至少30米),IMU
  • 所需平台:
    Ubuntu16.04 + ROS kinetic
  • 使用环境:
    室内+室外
  • 产品功能:
    机器人定位与导航

产品优势

激光雷达+视觉SLAM融合方案能够弥补激光雷达
与摄像头各自的弱点:

  • 能够使用相机的密集的角度分辨率以
    弥补激光雷达的稀疏性
  • 使用激光雷达的准确范围信息,以
    解决相机深度感知的模糊性
  • 即使任何一个传感器发生故障,激光
    雷达+视觉融合SLAM系统也能正常工作

应用场景

激光雷达+视觉SLAM融合方案能够适应更多复杂的环境,使SLAM能够在多种环境下工作:

  • 黑夜
  • 隧道
  • 雾天,雪地
  • 高速运动的汽车上
  • 更多其他环境

产品展示图

机器视觉与SLAM融合

产品介绍

北京眸视科技有限公司作为国内领先的视觉追踪研发单位,实现在未知环境中(未制作地图情况下)追踪目标(人 )行走,实现对指定目标的检测和实时跟踪,做出前进、后 退、左转和右转等基本操作,并且和目标保持1.5米的距离。

试用范围

智能旅行箱、工厂物品托运、家庭智能监控、特定行 人轨迹追踪等。

功能介绍

(1)机器人对行人目标的跟随;
(2)机器人保持和追踪目标保持一定范围,在追踪过程中可实现避障;
(3)可以实时获取机器人正前方的场景信息,识别行人信息;
(4)将机器人行走过程中周围环境制作成地图;

产品展示图

视觉SLAM+IMU

视觉SLAM是利用视觉传感器进行定位导航的算法集合,利用视觉传感器代替激光雷达能够很好的降低 传感器+IMU方案能够很好的解决这一难题。
视觉与IMU的融合可以借助IMU较高的采样频率,进而提高系统SLAM产品的成本,同时精度与激光雷达相近。但是纯视觉SLAM难以在单一重复的场景时有效定位。
而视觉的输出频率;视觉与IMU的融合可以提高视觉的鲁棒性,如视觉SLAM因为某些运动或场景出现的错误结果;
视觉与IMU的融合可以有效的消除IMU的积分漂移;视觉与IMU的融合能够校正IMU的Bias;
单目与IMU的融合可以有效解决单目尺度不可观测的问题。
视觉SLAM系统支持单目、双目、深度摄像 头三种类型。

单目视觉加IMU

  • 产品硬件:
    普通单目摄像头、IMU
  • 产品功能 :
    定位、制图、导航、避障
  • 产品优势:
    成本低。单目与IMU的融合可以有效解决
    单目尺度不可观测的问题

双目视觉加IMU

  • 产品硬件:
    步科 XPIAC2S-ET-100双目摄像头
  • 产品功能:
    定位、制图、导航、避障
  • 产品优势:
    通过双目视角获得物体的深度,结合IMU可以避免在特征少的白墙、沙漠等环境跟丢的难题

深度摄像头加IMU

  • 产品硬件:
    深度摄像头(kinect、realsence等)、IMU
  • 产品功能:
    定位、制图、导航、避障
  • 产品优势:
    建图准确,不易跟丢。结合IMU有 效避免了深度
    传感器受阳光,墙面 反光等对slam的影响

产品展示图

基于深度学习的目标检测和跟踪

产品介绍

基于深度学习技术,卷积神经网络的FASTER-CNN或者YOLO对于行人和物体的快速识别技术, 帮助机器人能够识别周围的目标,并进行跟踪,这可以使得机器人更加智能的感知环境,并进行 相应的控制如避障、更加智能的路径规划等。公司是市场上第一个能够将二维激光雷达和三维 视觉融合并用于机器人定位和导航、行人识别方面的厂家。
融合体现在两个方面:

  • 基于视觉特征形成三维点云,将视觉的三维点云与二维
    激光雷达的点云融合;
  • 基于视觉做深度学习的行人及移动目标的检测和跟踪,
    然后再与二维激光雷达的深度信息融合;

产品展示图

基于深度学习的表计识别


基于深度学习技术,采用人工神经网络对真实应用场景中的表计进行检测与识别,让机器人快速准确的读取表计示数。 对于指针式表计(如圆型、方形、单针和多针)以及液晶表均具有良好的支持。可以广泛应用于需要记录表计数据的场合如燃气站 、变电站、机房等应用场景,完美替代人工抄表减轻现场工作人员负担。

  • 指针型和液晶型多种表计;
    指针式:圆形指针表,方形指针表,单指针表,多指针表,持续更新中...
    液晶表:断码液晶表,数码管表,LCD数码表,持续更新中...
  • 读数准确度高;
  • 表计识别速度快;

产品展示图

声纹识别

产品介绍

特征批量提取工具:对训练设备声音数据进行特征批量提取的工具;
UBM训练工具:通过大量的设备声音数据来训练UBM的工具。使用此训练工具需安装Python运行环境;
设备声音切分工具:分为按自然长度切分与按有效长度切分两种。其中,按自然长度切分是指,按照设备声音的自然长度将声音切分成若干段小声音,切分后的小声音是等长的;按有效长度切分是指,按照设备声音中有效声音的长度将设备声音切成若干段小声音,切分后的小声音是不等长的,但其中各段的有效声音长度是相等的;
声纹建模识别工具:用于批量进行声纹建模和识别,得到一个用于调节性能的打分记录;
EER工具:根据识别打分,统计EER的工具;
列表工具:生成设备声音列表,用于声纹建模和识别;

产品展示图

“洗地拖地”全路径覆盖算法


主要用于清洁机器人,能够为客户提供更快、更全、更高效的清扫路径服务。眸视科技全覆盖路径算法相对传统覆盖算法优越性主要体现在以下方面:

  • 求同存异:根据机器人结构尺寸、清扫半径及实际工作环境,对环境进行分区,清扫区域之间求同存异,最终产生最优分区;
  • 因地制宜:根据机器人实际清扫区域,因地制宜生成区域主向,产生单区最优覆盖路径;
  • 动态规划:根据机器人初始位置,动态规划出所在环境的全覆盖清扫路径;

产品展示图

动态环境建图

产品介绍

动态环境制图可以有效地解决机器人商业应用中的痛点,扩展机器人的适应能力和应用场景, 减少机器人建图需要的人工支持。

  • 在单次建图过程中,实时滤除高动态目标,避免高动态目标作为不必要的障碍物出现在SLAM产生的地图中。 该功能的应用场景包括SLAM制图过程中有行人、移动的车辆,动物等等情形。
  • 在多次建图过程间,针对低动态目标的出现、消失、移位等情形,自动更新地图从而反映出当前的低动态目标在地图中的状况。 该功能的应用场景包括巡检区域内新增了一个障碍物、原先环境中的某个物体被移走了或者变换了位置等等情形。
  • 在多次建图过程中,当机器人移入之前未建图的区域时,可以基于之前的地图基础上增加新区域的地图。 该功能的应用场景包括巡检区域需要扩展到之前未建图的区域等。

产品展示图

创新、高效、开放