Uskin触觉传感器


 XELA机器人三轴力触觉传感器授权伙伴——欣佰特科技(北京)有限公司 

电话:18001131966       Email: sales@cnbytec.com 



产品介绍

XELA Robotics技术创新的阵列式三轴力触觉传感器Uskin,为组装和包装领域的企业创造了新的可能性。由于人口迅速老龄化,我们必须找到一种解决方案,以减少劳动力中的可用人数来维持我们的经济生产力。

XELA Robotics提供了此解决方案的一部分,开发了uSkin,这是一种高密度的三轴触觉传感器,采用薄,柔软,耐用的包装,并且布线少。uSkin可以轻松集成到新的和现有的机器人中。这为机器人提供了类似人的触觉,从而使他们能够精确地抓握和操纵物体。XELA uSkin可以轻松集成到各种机器人手和夹具中。

XELA的3轴力传感器阵列,用于实现机器手和夹爪的触觉感知。XELA触觉感应阵列,具有小巧、轻薄、柔软、耐用,布线少等优点。Uskin传感器阵列具有1×1、2×1、2×2、4×4、4×6多种规格。

主要特点

1、数字输出

提供数字输出,只需要几根细线,不需额外模数转换器。提供更快、更精确的测量,同时将电噪声和干扰降至最低。

2、柔软耐用

这是一种柔软传感器,能够处理易碎物体而不会损坏它们。不同尺寸、形状、硬度和重量的物体可以可靠地抓握和操作。柔软性还可确保传感器对过载具有高度的弹性,使非常耐用。

3、易于集成

XELA提供触觉皮肤传感器,可轻松集成,以简单地粘附或连接方式进行安装。

 

 

 

 


Allegro Hand 四指灵巧手

特征:

    每个手指包括64个三轴触觉传感器

    柔软的皮肤

    每个模块仅需要7根导线进行连接

    使用触觉感知的灵巧操作

    ICRA 2017软机器人挑战赛获奖

SCHUNK 夹爪


uSkin可以和SCHUNK等各种平行夹爪集成。uSkin设计了一个定制的指尖,可以安装在Schunk、Weiss、Onrobot等各种平行夹爪上。

定制指尖

2个(每个手指一个)*24个三轴触觉传感器

这款定制的指尖,完全适合uSkin的所有组件,并完全固定和覆盖我们的传感器。

    干净的设计

    保护微控制器和大部分导线

    提高抗剪切力的耐久性


SAKE 机器人手抓

将SAKE机器人手爪与uSkin相结合,使其能够精确地抓取和操纵物体



征:

    2个(每个手指一个)*24个三轴触觉传感器

    柔软的皮肤

    每个模块仅需要7根导线进行连接

    用适当的力量抓住精致的物体

ROBOTIQ 夹爪

XELA uSkin可以集成到ROBOTIQ手爪上。uSkin传感器可以针对每个特定应用进行修改。对于这个特殊的应用,我们将传感器的外壳从普通的夹持胶带改为硅胶外层。硅层确保了客户研究所需的平坦表面。


特征:

    2个(每个手指一个)*16个三轴触觉传感器

    硅胶外壳

    只需要5根电线

 



案例一、机器人如何灵动打开形状随变布袋的拉链

(日立制作所和早稻田大学理工学部探索)

日立株式会社和早稻田大学科学与工程学院的Tetsuya Oda教授的研究小组开发了一种深度学习型机器人控制技术,旨在实现以前由于机器人工作能力的限制而尚未引入的车间自动化,从而轻松实现复杂的操作。该技术通过学习自动提取机器人的手和物体的特征信息,无需编程即可掌握形状变化物体的处理(例如,安装电缆和盖、处理液体和粉末等)。此外,还可以从包含对象的物理特征(颜色和形状等)和操作内容(抓握或按压等)的语言指令中,关联执行未学习的操作。今后,我们将通过自动化各种没有机器人的现场工作来构建支持人类工作的系统,以解决出生率下降和人口老龄化带来的劳动力短缺问题。

为了学习机器人运动,我们利用了国家先进工业科学技术研究所的人工智能桥云(ABCI)。部分研究成果在531日至66日举行的2021年国际会议中展示,包括机器人和自动化ICRA 2021研讨会。将于66日至8日举行的日本机械工程师学会2021年机器人和机电一体化讲座(ROBOMECH2021)的海报会议上发表。

我们开发的深度学习机器人控制技术由以下技术组成:

1. 自动提取轨道规划关键信息的行为生成技术

在传统的机器人控制技术中,根据通过物体识别获得的信息,人工编程(轨道规划)物体方向和形状的所有可能动作。因此,在操作因接触而改变形状的不定形物体(如布或绳子)时,很难以编程方式描述所有情况。与此相对,本技术仅通过多次向机器人示教期望动作,就从机器人的视觉和触觉信息中自动提取应关注的信息(对象物的位置、方向等)和此时应采取的动作,在非典型作业中对新情况的操作现在可以在不编程的情况下执行。

自动提取轨道规划所需的信息的动作生成技术的工作原理

2 从语言指示中估计指示对象和动作的联想技术

为了实现基于人的语言指令(语音和文本文本等人类可以理解的信息)的所需行为,所有语言指令和行为之间的关系都是人工编程的。因此,每次添加操作或对象时,都必须将其与语言指令关联。该技术学习机器人的行为、对象和语言指令之间的关系,并将其存储在数据库中。我们开发了一种技术,通过从包含对象的物理特征(颜色和形状等)和操作内容(抓握或按下等)的语言指令,将存储在数据库中的类似操作的关联结果输入到操作生成模型中,从而从未学习的语言指令自主执行所需的操作这消除了对语言指令和行为的所有关系进行编程的需要,并增加了可用的行为变体。

 关联指令对象和动作的关联技术的结构

文稿来源:https://www.waseda.jp/top/news/73068


案例二、机器人如何抓住柔变电缆末端的插头并将其精准插入插座

(Denso电装技术探索)

文稿来源:https://xelarobotics.com/en/use-cases