您的位置首页 >企业 >

消除人工智能偏见的5个步骤

导读 给大家分享一篇关于 和手机的文章。相信很多朋友对 和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和 的相关知识

给大家分享一篇关于 和手机的文章。相信很多朋友对 和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和 的相关知识与大家分享。希望大家看完之后会喜欢。

在将人工智能引入医疗带来的诸多挑战中,或许最迫切的是算法偏差,其中人工智能系统在其过程中内置了歧视倾向。

在《自然》杂志的专栏中,马特库什纳博士、伦敦大学学院计算机科学副教授约书亚洛夫特斯博士、技术和商业系助理教授,在新的统计中概述了在约克大学开发更公平的人工智能模型的方法。

他们写道:“只有找出歧视的真正原因,我们才能建立算法来纠正这些问题。”他认为“因果模型”是关键,因为它们可以清楚地解释驱动其输出的潜在过程(歧视性或其他形式)。

该选项提供了五个指导原则,以负责任地使用因果模型,并确保它们实现设计所寻求的公平结果:

1.跨学科合作。

2.与利益攸关方的合作。

3.让劳动力公平。

4.确定算法何时不合适。

5.煽动批评。

作者总结道:“算法越来越多地被用来做出可能改变人们生活的决定。通过使用因果模型来形式化我们对歧视的理解,我们必须构建这些算法来尊重人类决策者所要求的道德标准。”

本文就为大家讲解到这里。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!
Baidu
map