即使自主机器人能更好地自己做事情,仍然会有很多情况下人类可能需要介入并控制局面。布朗大学计算机科学家开发的新软件使用户能够使用虚拟现实远程控制机器人。虚拟现实帮助用户沉浸在机器人周围的环境中,尽管距离机器人的物理位置很远。
该软件通过互联网将机器人的手臂和夹具以及其车载摄像机和传感器连接到现成的虚拟现实硬件上。使用手持控制器,用户可以控制机器人手臂的位置,通过移动自己的手臂来执行复杂的操作任务。用户可以进入机器人的金属蒙皮并获得环境的第一人视图,或者可以在机器人周围走动以对第三人的场景进行测量(以更容易完成手头的任务)。在机器人和虚拟现实单元之间传送的数据足够紧凑,以在因特网上以最小的滞后被发送,使得用户能够从长距离引导机器人。
"我们认为,在任何情况下,我们需要进行一些脱FT操作,但在那里人们不应该是这样的情况下,这可能是有用的,"说,大卫惠特尼是布朗的研究生,他共同领导了该系统的发展。"我们正在考虑的三个例子是使用炸弹、在受损的核设施内工作或在国际空间站操作机器人臂。"
惠特尼与布朗大学本科生埃里克·罗森共同领导了这项工作。两人都在布朗的人类实验室工作,机器人实验室由计算机科学助理教授StefanieTellex领导。本周在智利国际机器人研究研讨会上发表了一篇论文,描述了该系统并评估了其可用性。
甚至高度复杂的机器人通常使用一些相当不复杂的手段来远程控制,通常是键盘或类似视频游戏控制器和二维监视器之类的东西。这项工作很好,惠特尼和罗森说,对于像在无人驾驶飞机周围驾驶轮式机器人那样的任务,但是对于更复杂的任务来说,这可能是有问题的。
惠特尼说:“对于操作机器人手臂有很多自由度的事情来说,键盘和游戏控制器并不是很直观。”将一个三维环境映射到一个二维屏幕上可能会限制一个人对机器人所处空间的感知。
惠特尼和罗森认为虚拟现实可能提供一个更直观和沉浸式的选择。他们的软件连接了一个巴克斯特研究机器人与HT CVive,一个虚拟现实系统,与手控制器。该软件利用机器人的传感器创建机器人本身及其周围环境的点云模型,并将其传输到连接到Vive的远程计算机上。用户可以看到耳机中的空间,实际上可以在里面走来走去。同时,用户从机器人的腕部摄像机中看到实时高清视频,以获得要执行的操作任务的详细视图。
研究人员指出,他们可以为用户创造沉浸式体验,同时保持数据的负载足够小,使其能够在互联网上承载,而不会让人分心。例如,在普罗维登斯的一个用户,例如,能够执行一个操纵任务--使用在剑桥的41英里的机器人在另一个内部堆叠塑料杯子。
在另外的研究中,18名新手在虚拟现实中完成了杯堆任务,比传统的键盘和显示器界面快了66%。用户还报告说,他们更喜欢虚拟界面,他们发现与键盘和监视器相比,操作任务的要求要低一些。
Rosen认为执行任务的速度增加是由于虚拟现实界面的直观性。
"在虚拟现实中,人们可以像移动自己的身体那样移动机器人,这样他们就可以在不考虑它的情况下完成它,"Rosen说."这让人们专注于手头的问题或任务,而没有增加的认知负荷,试图弄清楚如何移动机器人。"
研究人员计划继续开发该系统。第一次迭代集中在一个相当简单的操作任务与机器人是静止在环境中。他们想尝试更复杂的任务,然后将操作与导航结合起来。他们还想尝试混合自治,机器人自己做一些任务,用户接管其他任务。