给大家分享一篇关于 和手机的文章。相信很多朋友对 和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和 的相关知识与大家分享。希望大家看完之后会喜欢。
为了确定人工智能系统的预测是否公平,数据科学家需要了解模型的短期和长期影响,这可能是由于许多静态数据集的误差度量存在差异。在某些情况下,除了误差指标之外,还必须考虑AI系统的运行环境,这也是谷歌研究人员开发ML-failure-gym的原因,ML-failure-gym是一组用于评估算法在模拟社会环境中的公平性的组件。
ML-failure-gym(本周GitHub上的开源版本)可以通过使用OpenAI的Gym框架模拟决策来研究自动化系统的长期影响。人工智能控制的代理与数字环境循环交互,在每一步中,代理都会选择一个会影响环境状态的动作。然后,环境将揭示一个观察,代理将使用该观察来通知其下一个操作,以便环境可以对问题的系统和动态进行建模,并将该观察用作数据。
比如考虑到经典的借贷问题,即每组申请人偿还银行贷款的概率是其信用评分的函数,银行作为代理人,以环境的形式接待申请人,观察其评分和会员情况。它做出决定(是否接受或拒绝贷款),环境模拟申请人是成功还款还是违约,然后相应调整其信用评分。在整个过程中,ML-failure-gym会对结果进行模拟,从而评估银行政策的公平性。
这样,ML-failure-gym巧妙地避开了静态数据集分析的陷阱。如果经典公平性评估(即用于评估模型性能的语料库)中的测试集是从现有系统生成的,则它们可能是不完整的或者反映了这些系统的固有偏差。此外,人工智能系统输出通知的动作可能会影响其未来的输入。
谷歌研究软件写道:“我们创建了ML-公平-健身房框架,以帮助ML从业者将基于模拟的分析引入他们的ML系统。这种方法已被证明在许多难以分析封闭分析的动态系统中是有效的。”工程师Hansa Srinivasan在博客中发表了一篇文章。
本文就为大家讲解到这里了。标签: