bpmn.ai:在业务流程中协调您的AI服务的流程模式(中)

bpmn.ai:在业务流程中协调您的AI服务的流程模式(中)

 

决策支持– AI优先

在这种模式下,总是在人工决定之前调用机器学习组件。然后,它传递其结果(包括置信度估计以及理想的结果证明)以支持手动决策。当使用可解释的AI(XAI)的其他方法时,这特别有用,它可以生成所谓的局部解释:例如,相对特征在个别情况下的重要性。

在最好的情况下,创建了人机四眼原则,该原则提高了决策质量的整体水平和多个决策者的一致性,因此在平等对待的意义上促进了公平。此外,如果适合您的业务案例(例如,在风险管理或质量控制中),则可以更有效地做出决策,从而可以更频繁地做出决策。

⚠️ 尽管此类系统注重人为决策,但仍需要道德考量。文员必须证明偏离“标准”的理由。这产生了不这样做的动机,例如在 奥地利AMS决策模型中。从道德的角度来看,只要没有从组织上确保人为决定的独立组织,这将使该过程退化为全自动过程(包括要满足的质量要求)。

⚠️ 为使此方法成功,必须在学习数据集中平等对待。奥地利AMS可以再次成为负面例子,因为它仅反映了劳动力市场对失业女性的偏见。

决策支持–以人为本

解决“ AI优先”决策支持模式问题的一种方法是扭转这种局面:首先需要人工决策,然后使用机器学习技术反映新决策(或一组近期决策)。

假设您有许多决策者随机地接受决策任务。这种情况的一个有趣的转折是将人为的决定视为理所当然,并试图预测决策者。如果失败或仅仅导致低置信度预测,那么一切都很好-如果它可行,则值得反思一下机器学习如何做到这一点。通常,您会发现一些误解或偏见。

在这里,机器学习组件从不影响 个人 决策,而仅充当业务流程中人为决策的质量控制。这适用于  容易受到偏见影响的高风险决策:贷款批准,欺诈检测, 人力资源决策等。

⚠️ 尽管这种模式有助于保护受决策影响的人,但它既可以作为团队学习和成长的机会,也可以作为视公司文化而定的劳动力监控手段。

漂移检测

大多数AI应用程序不会持续学习(正确的做法是)。但是,这引发了一个问题:  “我需要多久训练一次带有新数据的ML模型?”

漂移(或概念漂移)是一个技术术语,用于描述一段时间后数据变得陈旧的事实。因此,从数据派生的ML模型也变得过时:烘焙到模型中的知识与现实之间的距离越来越远。以下模式有助于衡量此效果。

文员是按一定概率随机分配的案件。该非自动化率可以自由选择,但通常不应为0%,以便将来有新的培训数据可用。例如:长期记录市场或客户行为并将其用于基于ML的营销自动化的公司,必须考虑到COVID-19大流行之前的数据不再有意义-该模型经历了(突然)概念漂移。

为了在不太明显的情况下注意到这些漂移,偶尔需要手动决策。他们创建参考。市场行为通常仅会发生变化-新车品牌之类的小东西使机器学习模型很难概括过去到未来的规则。持续提供最新的手动决策也有帮助:例如:在所有情况的5%中,决策既可以手动完成,也可以使用AI模型进行。只要他们的协议水平在合理的时期内保持稳定,一切都很好。

 该模式还可以用作飞行员的功能切换,即

 如果自动化程度调整到接近0%,则可以无风险展开。

⚠️ 为了确保可审计性并防止模型在以后的培训中遵循其未经验证的决策,为每种情况记录是否做出了手动还是自动决策非常重要。

相关教程