bpmn.ai:在业务流程中协调您的AI服务的流程模式(中下)

bpmn.ai:在业务流程中协调您的AI服务的流程模式(中下)

第三组:数据保护与合规

GDPR同意

根据GPDR Art。22(自动化处理的法律效力)第。1,有反对权。换句话说:出于特定目的,可能需要获得个人同意才能处理其数据。除了其他可能导致处理合法的原因之外,正常情况下应征得同意。

机器学习模型的应用肯定会被认为是 有用的 (就GDPR而言),并且肯定会使用将个人数据包含在训练数据库中  。如果客户反对这种使用,则需要业务流程中的“计划B”,而ML服务工具通常对此并不负责。

 这可以在IT体系结构的处理器编排级别上以类似于在服务公司中处理VIP业务交易的方式来实现。

争论决定

除了异议,还可以考虑随后的决策争议–对历史决策提出质疑,并在必要时进行修订。此纠纷导致有义务追溯重建和纠正自动决策。即将到来的立法可能会强调这样一个观点,即从 消费者的角度来看, 无法重构的自动决策不会比仲裁裁决更好,因为这是不可能成立的。

该 策划的 机器学习工作流程将历史情况数据,包括决策和ML模型版本。此信息对于重复并系统地分析模型上的各个决策是必不可少的。如果以后对一个案例提出质疑,则XAI分析会通过重复此案例以及可能具有可比性的案例来提供导致结果的决策路径。个别情况是合理的,如有必要,可以进行讨论和修订。错误的决策路径和边缘案例变得透明。

除了流程引擎预期的数据记录之外,还有很多东西要学习:修改后的决策通常在数据中显示出特别重要的特征。数据集被更正并标记为已修正和更正,以了解并最小化未来ML模型中的错误。

⚠️ 一旦在ML模型中处理了GPDR含义内的个人数据,此模式就是强制性的(请参阅GDPR第22条第3款)。

4组:多模型模式

异常决策保障

机器学习模型会像人类一样做出错误的决定。有时看似随机的影响会提高准确性的上限–客户流失率可以合理估算,但从未真正为所有单个客户预测。罕见或特殊情况下的低训练数据通常是造成估计的原因,而这些估计后来证明是错误的。

通过结合两种机器学习程序,我们可以通过识别稀有物(异常)并将其引导给负责人来减轻这种风险。可以肯定地说,机器学习模型在这些情况下无论如何都不会执行,因为个别情况在所有方面都可能很奇怪。当提及过去的相似案例时,类推的基本推理可能会在没有合理相似案例的情况下分解。这导致以下模式:

 异常检测 第一计算每种情况下与异常分数。考虑到保险索赔过程,对于新电动汽车模型报告的首次汽车损坏当然应该手动评估,例如,对跑车进行异常昂贵的维修。

低异常分数应成为规则。这些例程充分存在于训练数据中,并且M1模型可以高置信度确定案例。  

中度异常分数很少。流程所有者控制一个等于置信度的阈值。如果超过此阈值,则是需要人类注意的异常情况。通过这种方式,可以生成有用的训练数据。

高异常分数(异常)始终由人工处理。从长远来看,在这里自动化的希望很小,但是注意力已经投入了很多。 

异常检测通过自动化解决了未知病例“滑倒”的风险。尽管基于ML的分类应以低置信度评估异常,但是异常得分和置信度值是不同的用例。

异常可以识别可能为流程改进提供机会的特殊情况。控制异常会有针对性地生成新的学习数据,这将有助于将来的模型学习更安全地处理这些情况。

第三方可访问的机器学习模型也可能必须保护自己免受旨在误导模型对抗机器学习的针对性攻击。例如,麻省理工学院的研究人员设法 伪造了乌龟图像,流行的分类器将其可靠地识别为步枪。如果您需要 针对这种欺诈行为对自动化流程进行 辩护,则也可以采用上述“ 异常检测优先” 模式,以防止分类器步骤首先看到对抗性案件。

相关教程