了解人工智能偏差及其对B2B贷款的影响,让我们来看看一些潜在原因。
众包的概念被称为“群众的智慧”是一千年非专家会做出更好的决策比最复杂的任何领域的专家。多个实验已经完成在这个概念。例如,使用在线游戏Foldit,57000多名球员帮助华盛顿大学的科学家们在三周内解决一个长期存在的分子生物学的问题。
然而人类受到偏见的决策。一些例子包括:
- 过度自信:我们太相信自己的能力。
- 确认偏误:我们往往只听信息证明我们的观点。
- 集群错觉:我们看到模式随机事件,比如7号出现连续五次在赌桌上,你会看到一个模式。
- 近因效应:我们最新的信息更重比老数据。
- 鸵鸟的效果:我们埋葬或忽略负面信息。
- 信息偏差:不一定是越多越好。
这些人工智能会导致偏见问题的算法设计,试图让我们更有效的和有效的。有四个方面,我们应该认识到:
1。算法偏见:例如,您的模型可能是出于利润,可能影响贷款向特定的个人或企业。或在医学,有些病人让你钱和一个大的依赖可能是保险,但是这个模式可能与病人健康冲突。可能有隐藏的偏差和设计偏差。设计偏差可能是有意的,作为设计师的算法可能与社会价值观冲突或规范。
2。数据偏差:算法只是一样好数据学习,可以嵌入到数据和偏见。例如,一些组织正在试图预测稀释以财务发票。这绝不是一个小技巧,特别是当数据集通常是绝缘在一个良性的信贷的世界。(见这个故事:确认稀释后在一个不确定的世界)。
3所示。的算法是什么意思的解释:算法是一个黑盒子,设计师可能知道模型的局限性和如何解释它,但是当涉及到银行或客户关系经理,他们可能不知道如何解释。这就是你进入我认为最重要的错误,可以I型和II型错误分别,也称为假阳性和假阴性。
4所示。负责模型做出的决策是谁吗?虽然AI可能产生更好的结果,它也可以减少自主权。
构建人工智能应用,重要的是要记住上面的点。毫无疑问,AI有巨大的优势,因为它可以减少固有的个人偏见。与贷款应用程序,让聪明的你看更多的数据集来帮助减少预期损失是相当有吸引力的,但我们必须记住大多数建模的警告没有足够长的时间商业信贷周期。和许多模型建立在最近的数据,真正关心这个长期良性的信贷周期结束的时候会出现。
讨论: