bpmn.ai:在业务流程中协调您的AI服务的流程模式(中上)
bpmn.ai:在业务流程中协调您的AI服务的流程模式(中上)
无服务的AI – DMN作为最小的AI运行时环境
深度学习是现代的,它激发了无限可能,但它是当前机器学习的终极比例:昂贵,数据饥渴,难以理解且不确定。这意味着IT运营的复杂性增加:您将需要维护几种快速发展的基础架构技术,可能包括软件和GPU资源。
但是,解释性和确定性是显而易见的设计目标-根据常识,并且明确要求监管机构(例如 自2019年以来的德国数据保护会议的建议)使用。出于决策自动化的目的,这取决于表格数据,可能会有一条捷径。
最大化简单性的一种方法是改为使用基于规则或基于决策树的方法。通常,它们的结果可以转化为 DMN决策表 ,而摩擦损失很小。DMN表不仅可追溯,还可以根据需要进行修改。另外,不需要特定的操作基础结构:现代工作流引擎可以立即执行DMN。从架构的角度来看,这种模式非常吸引人,并且可以收集一些商业案例方面的难得的成果。但是,它不会成为旗舰项目,并且可能不会赢得数据科学家的热情。
原则上,这可以通过更复杂的机器学习方法来实现(例如,通过 Anchors 方法从ML模型中得出规则)。
⚠️ 但是,在更复杂的情况下,将失去透明度以换取透明度和可变性。此外,在网络或大型DMN表中,您可以声称简单且可解释的内容也有上限。
数字常识–过程结果异常检测
如果暗处理率很高,则无论是否使用AI技术,都会出现控制问题:缺乏常识,无法再次检查过程结果,例如计算得出的关税或合同,并对其进行检查合理性。通常,这不是必须的,但是错误总是会发生,并且,如果可能的话,客户不应是流程中第一个注意到错误的人。
为了解决这个问题,可以将AI异常检测程序用作最后的处理步骤之一,并且在个别情况下会自动触发升级事件-需要进行手动检查。
AI不会在这里做出自己的决定,但是如果其他人(人和系统)看起来“奇怪”,它可以停止其他人的决定。因此,该介绍较容易争论,但可能比优化节省的费用更少。异常检测的主题是AI模型可以了解构成或什至违反业务流程或其结果的正常性的内容。这可以基于诸如关税或成本之类的显而易见的事物,但是与手动测试相比,它还可以包含更多因素。可选地,过程过程的各个方面也可以成为异常检测的一部分,例如以自动升级运行时间特别长的过程或(特别是与学习的正常性相比)循环过程特别频繁。
⚠️ 注意:会出现误报。此模式假定您的过程中已建立正常性。对于某些业务流程,此假设可能是错误的。
少于数百个流程实例的非常新的流程将无法产生足够的数据,无法使算法充分了解 通常发生的情况。
如果收集了这些数据量,该算法可以指出 异常 数据点并引起注意。每当软件发布影响流程中的数据时,这种情况也会定期发生。例如,如果您在软件版本中更改定价方案,则生成的第一个价格 对于该算法而言可能看起来 很不正常,直到在新数据点上对其进行重新训练并且我们收集了足够多的数据之后,它们才被视为新常态的一部分。
第二组:介入
自动化程度可控
使用流程引擎是对灵活性的投资–可以以协调的方式进行更改,而无需复杂的发布流程。这样,可以使用XOR网关来控制自动化级别。
考虑将AI组件用于分类决策,例如 “是否必须由专家检查此保险索赔?” 除了决策本身之外,AI组件还表明其对自己的决策的信心(Confidence)。通常在0.0到1.0的范围内给出,其中1.0对应于100%的确定性,这是很难实现的。根据此置信度值,我们分支到手动处理或根据需要绕过它:
1. 最小置信度= 100%–--相当于测试或飞行员操作。AI组件实时运行在真实数据上,但永远不会自主做出决定,因为永远不会达到100%阈值。甚至人类文员也会有残留的不确定性,但是不能量化。
2. 最小置信度=〜93.45%–--人工智能决定是否可以安全地进行工作,并将标准案件走私过店员,因为对于标准案件,高置信度是可能的。可以针对过程和错误成本优化具体的阈值,以便具有几个小数位的阈值可能有用。
3. 最小置信度= 90.00%–--基于负责过程的人员的经验手动设置的值。该值低于上述最佳值。这提高了自动化率,我们接受更高的错误率。在发生重大事故(部门完全不堪重负)之后,这可能是有用的配置。
4. 最小置信度= 0.00%–--即使不确定性很明确,AI也会始终自主决策。通常,这不是合理的配置。您只希望在低风险情况下(例如广告定位)使用此配置。
⚠️ 注释组1:过程数据收集–应保存自动决策,以备日后查阅,尤其是在手动决策已否决自动决策的情况下。
相关教程
- 2020-12-12
- 2020-12-06
- 2020-12-06
- 2020-12-05
- 2020-12-05
- 2020-12-05
- 2020-12-05
- 2020-12-05
- 2020-12-05
- 2020-12-05