关注公众号,发现CV技术之美

发布人:本文由 Google AI 的 ML 研究产品经理 Igor Kibalchich 策划撰写

请注意,本文所体现的信息、用途及应用完全是 Video-Touch 客座作者的观点。

您可能看过一些科幻电影,电影中的人可以用身体动作来控制机器人。如今,借助现代计算机视觉和机器人方法,我们能够把这种体验变成现实,而且和电影一样精彩奇妙。

受新冠病毒影响,在如此艰难的时期,为了让远程控制和远程操作变得切实可用,我们开启了 VideoTouch 项目。

Video-Touch 是第一个人机交互系统。它允许多名用户,在世界任何地方通过视频通话应用(例如 Google Meet、Zoom、Skype)对其进行控制。

Video-Touch 系统的实际运用:单个用户在 Video-Touch 通话期间控制机器人。注意抓住试管时传感器的反馈 [源视频]

  • 源视频

    https://www.youtube.com/watch?v=F4X4jJwDBy4+

我们考虑过,是否有可能只用自己的手来远程控制机器人,而不借助手套、操纵杆等任何额外的设备,同时不产生明显的延迟。于是,我们决定使用计算机视觉来实时识别动作,并实时传递给机器人。在 MediaPipe 的帮助下,我们将其变为了现实。

操作系统大致如下:

1. 通过视频会议应用,在用户设备上获取网络摄像头视频,然后将其发送至机器人计算机(“服务器”);

2. 用户的网络摄像头视频串流通过 OBS 虚拟摄像头工具被捕捉到机器人的计算机显示器上;

3. 识别模块在 MediaPipe 的帮助下读取用户的动作和手势,并通过 ZeroMQ 发送给下一个模块;

4. 在动作捕捉数据的基础上,机械臂及其抓手由 Python 控制。

图 2:Video-Touch 系统的整体方案:从用户的网络摄像头到机器人控制模块 [源视频]

  • 源视频

    https://www.youtube.com/watch?v=F4X4jJwDBy4

从方案中可以清楚地看出,用户在操作机器人时只需稳定的互联网连接和一个视频会议应用。所有的如屏幕捕捉、手部追踪、手势识别和机器人控制等计算,都可以在 Wi-Fi 与机器人连接的单独设备上进行(只是另一台笔记本电脑)。接下来,我们将对流水线的各个环节进行详细说明。

视频串流和屏幕捕捉

用户可以使用任何一台能够实现跨设备传输视频的软件。在实验中,我们使用的是视频会议的桌面应用。用户在其设备上呼叫一台显示器与机器人相连的计算机。这样,机器人就可以看到来自用户网络摄像头的视频串流。

现在,我们需要某种机制来把用户的视频从视频会议传递到识别模块。我们使用的是 Open Broadcaster Software (OBS) 及其虚拟摄像头工具来捕捉打开视频会议的窗口。这样我们就获得了一个虚拟摄像头,它现在有来自用户网络摄像头的帧及其独特的设备索引,可以在识别模块中进一步使用。

识别模块

识别模块的作用是捕捉用户的动作并将其传递给机器人控制模块。MediaPipe 会在此发挥作用。我们为捕捉手部动作寻找了最有效、最精确的计算机视觉软件。我们发现了许多令人兴奋的解决方案,但事实证明,对于如此具有挑战性的任务(实时设备端手部运动精确识别),MediaPipe 是唯一适合的工具。

我们对 MediaPipe 手部追踪模块进行了两项关键修改:增加了手势识别计算器并集成了 ZeroMQ 消息传递机制

  • 两项关键修改

    https://github.com/Arxtage/videotouch.github.io/tree/main

在上次发表文章的时候,我们有两个版本的手势识别实现。第一个版本如下图 3 所示,所有的计算均在手部姿势识别计算器内进行。计算器将特征点作为输入进行缩放,也就是说,这些特征点根据手的边界框大小(而非整个图像的大小)进行标准化。接下来,它会识别 4 种手势(另见图 4):“移动”、“倾斜”、“抓取”和“无手势”(论文中的“手指距离”手势是实验性内容,没有包括在最终演示版中),并输出手势类名称。尽管这个版本十分稳健实用,但它只是基于简单的启发式规则,如:“如果此特征点 [i].x < 特征点 [j].x,那么它是一个‘移动’手势”,而且对于手部旋转这类现实生活中的情况,此版本无法识别。

图 3:修改后的 MediaPipe 手部特征点 CPU 子图。注意手部姿势识别计算器(HandGestureRecognition calculator)

  • 发表文章

    https://dl.acm.org/doi/10.1145/3415255.3422892

为了缓解泛化不良的问题,我们实施了第二个版本。我们在手动收集和加标签的 1000 个关键点的数据集上训练了来自 scikit-learn 的梯度提升分类器:“移动”、“倾斜”和“抓取”类各有 200 个,而“无手势”类有 400 个。顺便说一下,如今可以通过最近发布的 Jesture AI SDK repo(注:我们团队部分成员的另一个项目)轻松获取此类数据集。

  • Jesture AI SDK

    https://github.com/jesture-ai/jesture-sdk/tree/main/python#annotation-tool

我们使用缩放的特征点、关节间的角度以及成对的特征点距离作为模型的输入,来预测手势类。接下来,我们尝试只传递缩放的特征点,而不传递任何角度和距离,结果在 200 个关键点的本地验证集上获得了 91% 的类似多类准确率。对于这个版本的手势分类器,还有一点是我们无法直接在 C++ 中运行 scikit-learn 模型,所以我们用 Python 进行实现,作为机器人控制模块的一部分。

图 4:我们模型所识别的手势类(未显示“无手势”类)

发表后,我们立即推出了一个在 Keras 中训练的全连接神经网络,它采用的数据集与梯度提升模型相同,而得到的结果更好,准确率达到 93%。我们将这个模型转换为 TensorFlow Lite 格式,现在我们可以在手部姿势识别计算器中直接运行手势识别 ML 模型。

图 5:用于手势识别的全连接网络转换为 TFLite 模型格式

得到当前手部位置和当前手势类后,我们需要将其传递给机器人控制模块。进行这一步时,我们借助了高性能的异步消息功能库 ZeroMQ。为了在 C++ 中实现这一点,我们使用了 libzmq 库和 cppzmq 标头。利用 请求-回复 方案:识别模块 C++ 代码中的 REP(服务器)和机器人控制模块 Python 代码中的 REQ(客户端)。

  • libzmq

    https://github.com/zeromq/libzmq

  • cppzmq

    https://github.com/zeromq/cppzmq

  • 请求-回复

    https://learning-0mq-with-pyzmq.readthedocs.io/en/latest/pyzmq/patterns/client_server.html

因此,借助我们修改过的手部追踪模块,现在能够将运动捕捉信息实时传递给机器人。

机器人控制模块

机器人控制模块是一个 Python 脚本,它将手部特征点和手势类作为输入,并输出机器人移动命令(在每一帧上)。运行该脚本的计算机通过 Wi-Fi 与机器人连接。我们的实验中使用了搭载 Nvidia GTX 1050 Ti GPU 的 MSI 笔记本电脑。同时尝试在 Intel Core i7 CPU 上运行整个系统,由于有高度优化的 MediaPipe 计算图实现,该运行也是实时的,延迟可以忽略不计。

在目前的流水线中,我们使用了 Universal Robotics 的 6DoF UR10 机器人。由于使用的抓手是双指的,我们不需要每个特征点与机器人手指关键点的完整映射,只需要手中心的位置。借助此中心坐标和 python-urx 软件包,我们现在能够在所需的方位和方向上改变机器人的速度:在每一帧上,我们计算当前手中心坐标与前一帧坐标之差,从而得出速度变化矢量或角度。最后,此机制看起来与人们用操纵杆控制机器人的方式非常相似。

图 6:手型机器人的控制逻辑遵循操纵杆的理念,其运动方向是预定义的 [源视频]

  • python-urx

    https://github.com/SintefManufacturing/python-urx

  • 源视频

    https://www.youtube.com/watch?v=F4X4jJwDBy4

高密度触觉传感器的触觉感知

灵巧的操纵要求具有较高的空间分辨率和对物体和环境的高保真触觉感知。最新的传感器数组非常适合机器人操纵,因为它们可以很容易地挂接到任何机器人末端执行器上,并适应任何接触面。

图 7:高保真触觉传感器数组:a) 数组在抓手上的位置。b) 抓手抓取移液管时的传感器数据。c) 抓手抓取试管时的传感器数据 [源发布文章]

  • 源发布文章

    https://dl.acm.org/doi/10.1145/3415255.3422892

Video-Touch 嵌入了一种高密度的触觉传感器数组。它们安装在双指机器人抓手中。每个指尖上都挂接一个传感器数组。单个电极数组可以感应 5.8 平方厘米的帧面积,每帧分辨率为 100 点。感应频率等于 120 赫兹。每个点的力检测范围为 1 至 9 牛顿。因此,机器人以 200 点的分辨率(每个手指为 100 点)检测施加在机器人手指抓取的固体或柔性物体上的压力。

从传感器数组处收集的数据经过处理后,以动态手指接触映射图的形式向用户显示。压力传感器数组让用户能够感知被抓物体的顺应性、硬度、粗糙度、形状、方向等物理特性。

图 8:多用户机械臂控制功能。用户能够在常规的视频通话过程中执行 COVID-19 检测 [源视频]

  • 源视频

    https://www.youtube.com/watch?v=F4X4jJwDBy4

尾注

如此一来,借助 MediaPipe 和机器人,我们建立了一个有效的多用户机器人远程操作系统。在未来,远程操作系统的潜在用途将包括医疗检测,以及在难以进入的环境(例如外太空)中进行的实验。该系统的多用户功能解决了有效远程协作的实际问题,允许在多人小组中进行需要手动远程控制的项目工作。

我们流水线的另一个优势特点是,人们可以使用任何带有摄像头的设备,例如手机,来控制机器人。除了机械臂,人们还可以操作其他如,边缘设备、移动机器人或无人机等硬件设备。当然,目前的解决方案具有一定的局限性:延迟时间、z 坐标(深度)的利用,以及手势类型的便利性都有改进的空间。我们十分期待试用 MediaPipe 团队的更新,并期待着尝试新类型的抓手(带手指的抓手)、双手控制,甚至是全身控制(期待“铁甲钢拳”!)。

希望这篇文章对您和您的工作有所帮助。保重身体,坚持编码。非常感谢您的关注!

END

欢迎加入「姿态估计交流群

Video-Touch:手势识别实现多用户远程控制机器人相关推荐

  1. 基于5G网络的远程控制机器人应用及测试

    [摘  要]通过在5G网络环境中对远程控制机器人的性能进行不同应用场景及不同网络配置下的测试与分析,验证5G网络具有的大带宽低时延等特性是否可以解决这些技术瓶颈,为远程控制协作机器人的产业发展带来新的 ...

  2. 嵌入式linux的软件毕设论文,嵌入式linux远程控制机器人_毕设论文.doc

    嵌入式linux远程控制机器人_毕设论文 嵌入式Linux远程控制机器人 嵌入式Linux远程控制机器人摘要嵌入式系统诞生于微型机时代,经历了漫长的独立发展的单片机道路.究竟嵌入式系统是什么?嵌入式系 ...

  3. Pepper/Nao中级教程:第一章 如何用Python远程控制机器人

    关于Naoqi之家 欢迎访问Naoqi之家,一个提供Pepper/Nao机器人中文开发手册的站点. http://www.naoqi.net 1. 目标 Python是最容易入门的语言,我们尝试写一个 ...

  4. python 控制机器人_Pepper中级教程:第一章 如何用Python远程控制机器人

    1. 目标 Python是最容易入门的语言,我们尝试写一个Python程序,来远程控制Pepper/Nao机器人说话. 网络连接方式如下图. 1- 在一台个人PC上编写这个Python程序,操作系统不 ...

  5. sencha touch 手势识别左右滑动

    sencha touch 中添加手势识别非常简单,就是监听 dom 元素的 move 事件: 1. 为你的 view 注册 swipe 事件 // 为当前 view 注册手势滑动事件 Ext.get( ...

  6. iOS开发系列--触摸事件、手势识别、摇晃事件、耳机线控

    -- iOS事件全面解析 概览 iPhone的成功很大一部分得益于它多点触摸的强大功能,乔布斯让人们认识到手机其实是可以不用按键和手写笔直接操作的,这不愧为一项伟大的设计.今天我们就针对iOS的触摸事 ...

  7. 基于无线信号的手势识别研究现状调查

    摘要:进入21世纪以来,人机交互技术持续发展,手势识别是代表之一.2013年,华盛顿大学的研究人员提出了使用无线信号进行手势识别的方法,给传统的手势识别技术带来的一定的挑战,但是这一技术并不是很成熟, ...

  8. iOS事件全面解析 (触摸事件、手势识别、摇晃事件、耳机线控)

    -- iOS事件全面解析 概览 iPhone的成功很大一部分得益于它多点触摸的强大功能,乔布斯让人们认识到手机其实是可以不用按键和手写笔直接操作的,这不愧为一项伟大的设计.今天我们就针对iOS的触摸事 ...

  9. iOS:触摸事件、手势识别、摇晃事件、耳机线控

    概览 iPhone的成功很大一部分得益于它多点触摸的强大功能,乔布斯让人们认识到手机其实是可以不用按键和手写笔直接操作的,这不愧为一项伟大的设计.今天我们就针对iOS的触摸事件(手势操作).运动事件. ...

最新文章

  1. eclipse总是运行上一个程序结果
  2. UVa10410 Tree Reconstruction(bfs+dfs确定二叉树)
  3. 学数据结构,仅仅须要主要的编程体验
  4. html研究中心,新媒体研究中心.html
  5. 称重传感器知识:型号,认证,性能与选择
  6. 线程之线程同步(1)
  7. git学习笔记-(13-reset三部曲)
  8. 详解DNS域名解析全过程
  9. 数字化转型的1个目标,3大领域,6大因素和9个环节
  10. Spring理论--Spring MVC学习
  11. 算法图解第七章狄克斯特拉算法读书笔记
  12. 【Excel】Excel学习笔记 -- 通配符的使用与定位条件
  13. Oracle--ORA-01775: 同义词的循环链
  14. Python学习 | 2022-01-15 Python基础复习(一)
  15. NTC热敏电阻基础以及应用和选择(转)
  16. Ue4制作鼠标拖尾效果
  17. 贝叶斯规划学习BPL
  18. next cloud_Google Cloud Next '17主题演讲的5个重要要点
  19. 系统安全认证设计实现
  20. 设计一个三阶巴特沃斯滤波器_设采样频率 ,用脉冲响应不变法设计一个三阶巴特沃斯数字低通滤波器。截止频率为 。并画出该滤波器的结构...

热门文章

  1. LeetCode栈专题-1(go/py3/c++)
  2. 管壁式换热器cad图纸_民勤图纸管板加工加工
  3. win10切换桌面_总说win7最好用,那是你还不知道win10系统,竟有这些强大的功能!...
  4. 初学python的小技巧_Python学习小技巧总结
  5. 开源监控Prometheus二进制安装
  6. android游戏模式,注重游戏体验 Android 12提供原生游戏模式
  7. oracle日期修改格式化,oracle日期格式化的实现
  8. MySQL性能医生:Orzdba工具安装和使用
  9. 计算机一级举报单位,2018年9月计算机一级Photoshop考试巩固练习题(三)
  10. Java自动生成增量补丁自动部署_java-Hibernate正在为表生成自动增量交替ID