机器人的未来 HRC:人与机器人之间的直接合作

Editor: Franziska Breunig

人们对公共领域的机器人的未来将会是什么样的分歧。 虽然有些人将机器人视为窃取我们工作的人形生物,但许多人发现他们迷人而且梦想着机器人的未来。

具有HRC功能的KMR iiwa与人类携手并进。
具有HRC功能的KMR iiwa与人类携手并进。
(Source: KUKA)

人机协作意味着责任

我们在KUKA有一个非常清晰的愿景:机器人应该协助人,而不是在其他方面。 机器人可以帮助人们工作,减轻他们不愉快或非人机工程学的任务。人们所执行的任务最好只限于需要人类技能的能力,例如学习能力,从经验中学习,感觉知觉,创造力,即兴创作等。机器人可以用力量,重复性,速度和质量来补充这些人类的属性。

对于我们在KUKA,人机协作(HRC)也意味着责任。人们永远是中心焦点 - 机器人在那里帮助人们,绝对不会危及他们。为此,机器人必须遵守新的安全要求。当然,也有各种各样的方法来处理这些要求。在KUKA,我们区分安全功能,以保护人们在使用机器人时,以及使机器人本身安全的功能。

机器人和应用安全

机器人周围的区域有多安全? 它使用什么工具? 这些都是我们也必须解决的问题。 我们不认为将机器人系统的安全性保留给集成商或用户(我们的客户)是正确的。直到机器人在其特定应用中是安全的我们才会满意。我们考虑到人类对机器人的接近程度,因为广义上讲,几乎所有的机器人都能以某种方式实现人力资源管理。有四种版本:

  • 当机器人的安全门打开时,机器人停止。这种方式所需要的是一个安全的输入(如果需要的安全继电器),当有人进入该区域时,它会停止机器人。
  • 如果要手动操作机器人,除了安全输入之外,还需要三位启动开关和安全速度监控。 (在某些情况下,也可能需要安全方向监控。)
  • 如果使用一个安全传感器可以(同样安全)确定人的位置,则可以根据人与机器人之间的距离减小机器人的速度,以确保机器人在人到达时始终处于停顿状态。对于这种方式,机器人需要“安全速度监控”安全功能和紧急停止按钮的安全输入。 所有当前HRC机器人系统的基础是避免碰撞。
  • 人机协作的最终挑战和真正本质就是碰撞控制(“权力和力量限制”)。这涉及机器人能够与人交互 - 人可以触摸机器人,引导它,甚至与之相冲突。使用诸如安全碰撞检测或安全力监测等功能,必须确保在发生碰撞的情况下,力和压力不超过规定的安全极限,而不考虑操作情况。 简单地说,机器人不会伤害人类。

一旦机器人的应用程序得到澄清,现在的问题是机器人是否提供了所需的安全功能。 KUKA实现以下功能,例如:

  • S安全碰撞检测
  • 安全的力量监测
  • 安全的工作区和受保护的空间
  • 安全位置监控
  • 安全的速度监控
  • 安全输入和输出
  • 安全的工具检测
  • 安全方向监控
  • 安全状态切换,允许在特定应用中的安全策略之间来回切换

KUKA还拥有符合DIN EN ISO 13849 PLd Cat 3和DIN EN 62061:SIL 2标准的这些安全功能。安全功能由各种组件构成,如传感器,评估电子,通讯和控制手段。 每个组件都有助于整体安全功能,而每一个组件都应该被认证。

下一步是在其工作区内安全地配置机器人。机器人的工作空间中是否有安全功能,如碰撞检测或力监测?如果测量精度在工作空间内的某些点或机器人结构的某些部分有限或不存在,该怎么办?安全是否仍然被保障?

接下来是安全技术中力量测量的精度。如果例如设定了120N的力极限,机器人只能以130N的精度可靠地测量是不能令人满意的。如果机器人以110 N的精度进行测量,则只能施加额外10N的力,这将限制应用范围。

还应对机器人的弹性进行测试。 灵敏,安全的机器人配备了测量技术,但必须坚固。因此,重要的是要知道机器人可以忍受多少以及如何测试 - 无负载,部分负载或满载。

最后但并非最不重要的是,机器人必须在KUKA进行碰撞测试。这是唯一的方法来告诉我们的机器人是否仍然安全,即使超载或经历了崩溃。如上所述,人们是人机交互的重点。因此,所有这些问题必须在特定应用程序的风险分析过程中得到最后解决。如果机器人具有认证的安全功能,这将更容易。如果存在机械指令要求的CE标志,也可以简单确认应用的安全性。如果CE标志被不正当地授予,在发生损坏的情况下,很有可能承担责任(包括个人责任)。

人与机器人协同合作

一开始就解决的问题是机器人是机器,人们对其安全运行负责。如果实施可靠和健全的安全措施,任何人都不需要恐惧人机交互。

(ID:44896428)