Apple卡与B2B Lending有什么关系?

美国红十字会CPO Pixabay.

最近,当丹麦程序员David Heinemeier Hansson推断时,这款推文造成了一个大kerfuffle,即他为新的Apple卡的信用额度是他妻子的20倍,即使她的信用评分较高。突然间的新闻挑选了对性别偏见的故事,声称信用卡的发行人,高盛,是给女性远低于信贷限额使用新的Apple卡,即使他们与他们的配偶分享资产和账户。

但是不可能知道Apple卡 - 或任何其他信用卡 - 歧视妇女,因为信誉算法是众所周知的不透明。信用评分只有一个决定信用值得的一个因素,因此难以结论。

但是,如果未来是B2B贷款周围的更多技术,那么我们应该如何担心建立在AI上的型号可能不会像人们想象的那么好?如果我们要相信ai的能力,而且我这样做,那么通过自动驾驶汽车等自学机制,智慧应该更好地获得更多的经验。

但人类设计软件和人类有偏见。一些例子包括:

  • 过度自信:我们对自己的能力太为自信。
  • 确认偏见:我们倾向于只倾听证明我们要点的信息。
  • 聚类幻觉:我们看到随机事件中的模式,就像第7次在掷骰子表上连续上升五次,并且你看到一个模式。
  • 新效应:我们比旧数据更严重的最新信息。
  • 鸵鸟效果:我们埋葬或忽略否定信息。
  • 信息偏见:更多不一定更好。

这些偏差可能导致算法中的设计缺陷我们代码,以便在自动化B2B承保方面使我们更高效和有效。

我们应该认识到四个领域:

  1. 算法偏置:例如,您的模型可能受利润率的动力,可以向某些业务摇摆贷款。或者在医学中,一些患者会让您金钱,依赖性可能是保险,但模型可能与患者健康冲突。可能存在隐藏的偏见和设计偏见。设计偏见可能是有意的,因为算法的设计者可能与社会价值观或规范冲突。
  2. 数据偏见:算法只与他们正在学习的数据一样好,并且偏置可以嵌入数据中。例如,一些组织正在尝试预测稀释以便为发票进行资金。这绝不是一个小小的壮举,特别是当数据集通常在良性信用世界中被绝缘时。(见故事:在不确定的信贷世界中发布确认稀释。)或采取特斯拉的案例,其有20亿自驾游才能评估。我是否确信在城市中的那种驾驶的健康百分比,或者是特斯拉本身建造的绝大多数高速公路或轨道?
  3. 解释算法的意思:算法是一个黑匣子,设计人员可能知道模型限制以及如何解释它,但是当涉及贷方或关系经理时,他们可能不知道如何解释。这是您进入我认为最重要的错误可以制作的东西 -类型I或II型错误,也分别称为假阳性和假阴性。
  4. 谁负责模型制造的决定?虽然AI可能会产生更好的结果,但它也可以减少自主权。

因此,在建立B2B贷款的AI应用程序中,重要的是要考虑上述要点。毫无疑问,AI可以减少固有的个体偏差,有很大的优势。随着贷款应用,当您查看更多数据集时,能够获得更智能的能力,以帮助减少预期损失是非常有吸引力的,但我们必须考虑到大多数建模没有足够长的商业信贷周期的警告。对于近期数据建立的许多模型,当这种长的良性信用周期结束时,可能会出现真正的关注。

大卫古斯汀经营全球商业智能,专注于支付,贸易融资,贸易信贷和营运资金的交汇处的研究和咨询实践。万博体育下载app他可以在dgustin(at)globalbanking.com上达到他。

分享在接受

讨论这一点:

您的电子邮件地址不会被公开。

本网站使用AkisMet减少垃圾邮件。了解如何处理评论数据