给大家分享一篇关于 和手机的文章。相信很多朋友对 和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和 的相关知识与大家分享。希望大家看完之后会喜欢。
在将人工智能引入医疗带来的诸多挑战中,或许最迫切的是算法偏差,其中人工智能系统在其过程中内置了歧视倾向。
在《自然》杂志的专栏中,马特库什纳博士、伦敦大学学院计算机科学副教授约书亚洛夫特斯博士、技术和商业系助理教授,在新的统计中概述了在约克大学开发更公平的人工智能模型的方法。
他们写道:“只有找出歧视的真正原因,我们才能建立算法来纠正这些问题。”他认为“因果模型”是关键,因为它们可以清楚地解释驱动其输出的潜在过程(歧视性或其他形式)。
该选项提供了五个指导原则,以负责任地使用因果模型,并确保它们实现设计所寻求的公平结果:
1.跨学科合作。
2.与利益攸关方的合作。
3.让劳动力公平。
4.确定算法何时不合适。
5.煽动批评。
作者总结道:“算法越来越多地被用来做出可能改变人们生活的决定。通过使用因果模型来形式化我们对歧视的理解,我们必须构建这些算法来尊重人类决策者所要求的道德标准。”
本文就为大家讲解到这里。标签: