当RPA变得更聪明——伦理和透明度要放在首位

早期的机器人流程自动化(RPA)技术遵循基本规则。这些系统不是由操作员点击操作,而是由软件(后来被称为“机器人”)来执行。这节省了用户花在低级任务上的时间,比如从屏幕上抓取内容、复制和粘贴等。

当RPA变得更聪明——伦理和透明度要放在首位插图

本文2289字,需要7分钟。

虽然RPA的功能很简单,但这些简单功能带来了明显的速度和效率优势。在接下来的几年里,发展涵盖了许多基本的工作流自动化。不过其局限性显而易见,很难移植或扩展到不同应用场景或行业领域中。

2000年之后不久,UiPath、automation Anywhere和Blue Prism等自动化公司成立了(有些公司在最初有不同的名字)。随着对自动化领域的持续专注,这些公司开始大举进军企业自动化领域。

当RPA变得更聪明——伦理和透明度要放在首位插图(1)

RPA变得更聪明

多年来,RPA系统的功能有了显著的发展。它们不再是早期版本的刻板工具,相反,它们提供了更智能的流程自动化。例如,automation Anywhere在他们的网站上列出了众多自动化产品,包括发现、构建、管理、运行和参与等。他们的竞争对手也有全面的产品。

当RPA变得更聪明——伦理和透明度要放在首位插图(2)

机器人流程自动化的用例现在是广泛和多样的。

例如,通过内置的智能技术,系统现在可以自动从发票(或其他客户提交的数据)中提取内容,并将其转换为结构化的数据库格式。尽管隐藏在RPA应用程序本身的内部,但这些智能特性很可能由各种形式的人工智能提供支持。

考虑到现在RPA技术在企业组织中所处理的用例广度,不难看到RPA工具本身添加更多AI功能开发和产品扩展路线。

当RPA变得更聪明——伦理和透明度要放在首位插图(3)

AI和RPA边界融合

RPA供应商将同向企业销售自动机器学习软件的人工智能供应商竞争。这些工具被称为AutoML(自动机器学习),能够让缺乏或没有数据科学经验的用户使用自己的数据构建和自定义人工智能模型。这些模型并不局限于特定定义的用例,可以是业务用户希望构建的任何东西。

在上面的例子中,一旦从发票中提取了数据,客户可以构建一个自定义AI模型来按优先级对这些发票进行分类,而不需要引入或连接额外的第三方AI工具。

机器人流程自动化和人工智能之间的界限的模糊是当下特别热门的话题。因为除了专业的RPA供应商,许多成熟的技术公司正在向市场发布他们自己的低代码RPA解决方案。

以微软为例,它在人工智能方面有着悠久的历史和强劲的实力。Azure有许多不同的人工智能工具,包括构建自定义人工智能模型的工具和专用的AutoML解决方案。最重要的是推动他们的产品组合,以形成独特的价值主张。在我们这里的环境中,这意味着低代码RPA和Azure的AI技术很可能会紧密结合。

关于人工智能伦理的讨论

与RPA和人工智能技术同时发展的是关于人工智能系统伦理道德的讨论,在某些司法管辖区还包括相关法规。人们对人工智能的伦理和构建人工智能的组织的多样性提出了合理的担忧。

总的来说,这些讨论和法规旨在确保人工智能系统以公平、透明和负责任的方式构建、部署和使用。有一些关键的组织和伦理原因确保你的人工智能系统的行为符合伦理。

当基于人的数据构建系统时(如在人力资源、财务、医疗保健、保险等领域),系统必须是透明和公正的;甚至在使用其他非人类数据构建的用例上,组织现在也要求他们的人工智能具有透明度,以便他们能够有效地评估在业务中部署人工智能的操作风险。

一个典型的方法是定义商业伦理原则,创建或采用伦理人工智能框架,并根据该框架和伦理原则持续评估你的人工智能系统。

与RPA一样,人工智能模型的开发可能会外包给第三方公司。因此,在缺乏对构建流程的监督情况下,评估这些系统的透明度和道德规范变得更加重要。

然而,大多数关于伦理的公开和组织讨论通常只在人工智能的背景下进行(大众的焦点常汇聚于此)。由于这个原因,RPA系统的开发人员和用户可能会觉得这些伦理问题可能不适用于他们,因为他们“只”使用流程自动化软件。

自动化影响人们生活

如果我们回到之前使用的发票处理的例子,我们看到了RPA软件中的自定义AI模型的潜力,它可以自动按发票付款的优先级排序。将此用例更改为优先处理医疗保险索赔而不是发票的医疗保健用例,技术转移会很方便。

RPA技术仍然可以自动从索赔文档中提取数据,并将其转换为结构化格式。然后,业务可以训练一个自定义分类模型(使用历史索赔数据)来确定支付的优先级,或者相反地,标记要暂停支付,等待审查。

然而,这里的道德问题是非常明显的。这个模型在RPA软件中做出的决定将直接影响个人的健康和财务状况。

正如在这个例子中所看到的,看似相对良性的自动化软件实际上正在进化,以减少(或完全消除)在重复工作流程中的人,从而影响人们生活的关键决策。伦理观念仍然应该是首要考虑的。

换个视角看问题

最好不要只从人工智能的角度来看待这些伦理问题,而是从一个关注自动算法决策的角度来看待。

现实情况是,不仅仅是人工智能技术应该关注决策。任何自动化的方法,当没有人力监督时都需要注意。

自动决策相关法规

英国最近公布的针对公共部门的道德、透明度和问责框架,你会发现它聚焦于“自动决策”。在指导文档中,“自动决策指的是单独的自动决策(没有人类判断)和自动辅助决策(帮助人类判断)。”

同样,《通用数据保护条例》(GDPR:前身是欧盟在1995年制定的《计算机数据保护法》)已经在欧盟生效一段时间了,为个人自动决策的权利做出了明确的规定。欧洲委员会给出了以下定义:“当你的决策是通过技术手段做出的,没有任何人力参与时,就会发生完全基于自动化手段的决策。”

加利福尼亚州在2020年提出了具有类似目标和定义的《自动决策系统问责法》。在这个法案中,人工智能(但不是RPA)被定义:“自动决策系统“是指一个计算流程,包括从机器学习、统计或其他数据处理或人工智能技术中派生出来的一个流程,它做出决策或促进人类决策,并通过评估准确性、公平性、偏见、歧视、隐私、和安全。

企业也应该对RPA应用进行治理

随着企业在组织内部建立团队、流程和技术来管理AI的开发和使用,扩展到包括所有自动化决策系统。采用RPA或AI不应该互相冲突。需要清晰的指导方针使团队能够继续实施,知道他们可以操作的范围。

人工智能的伦理问题一直被关注。然而RPA变得越来越聪明时,伦理问题往往被忽略。

使用更广泛的视角,而不是仅仅针对人工智能时,其含义就变得清晰了。对于开发人员和所有自动化决策系统的用户来说,伦理同样是最重要的,而不仅仅是包括机器人流程自动化在内的人工智能。

本文由 首页 - RPA虚拟员工|方案|论坛|RPA+AI|自动化流程|新闻|资讯 作者:Editor 发表,其版权均为 首页 - RPA虚拟员工|方案|论坛|RPA+AI|自动化流程|新闻|资讯 所有,文章内容系作者个人观点,不代表 首页 - RPA虚拟员工|方案|论坛|RPA+AI|自动化流程|新闻|资讯 对观点赞同或支持。如需转载,请注明文章来源。

发表评论