给大家分享一篇关于 和手机的文章。相信很多朋友对 和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和 的相关知识与大家分享。希望大家看完之后会喜欢。
无论是为癌症患者提供更快、更准确的诊断,还是保护濒危动物物种,AI的使用都在不断扩大,影响力也在不断增长。
除了显著的技术进步,这些例子也很重要,因为它们有助于提高公众对人工智能的接受度和信任度。这些重要的正面报道与一些媒体发布的负面新闻背道而驰。
就上下文而言,将AI从某些方面接收到的接收结果与现在熟悉的其他技术的历史响应进行比较是有帮助的。在成为主流之前,许多这样的例子都经过了类似程度的检验。手机就是一个很好的例子。
人工智能非常强大,所以它应该像任何新技术一样受到检查和制衡。可以说,这项技术具有世界性的变革潜力,因此对健康的怀疑程度甚至比早期现代技术更重要。
例如,许多讨论都集中在AI和机器学习(ML)平台继承了我们的人类偏见这一事实上,这通常是由于人们决定选择要使用的特定数据。甚至这个决定也会表现出有意识或无意识的偏见。这是一个问题。例如,我们不希望最终的刑事司法系统显示出对某些种族或社会经济群体的偏见,因为他们在历史上可能在司法系统中代表过多。我们不希望基于历史估计的系统让女性的工资不平等长期存在,基于人工智能的系统也不应该歧视不太富裕社区的人,在确定医疗保险费时将其视为某些疾病的较高风险。
人工智能驱动的未来应该带来积极的进步,而不是进一步加深现有的偏见和不平等。人们一直在讨论喜剧如何避免“抑郁”,避免日常生活中可能被边缘化的软目标。同样,人工智能不应该让弱势群体本已艰难的生活变得更加艰难。
为了消除AI和ML的偏见,我们在设计基于这种技术的产品时,需要仔细考虑我们的意图。我们必须小心,不要根据用来训练产品的数据集,在产品中植入人为的有意或无意识的偏见。我们需要从警告中学习,而不是重复这些失败。透明度也至关重要。从黑盒子里出来的决定(没有显示他们是如何做出具体决定的)可能有缺陷,并且容易产生偏见。对于影响人类生活的领域,我们需要能够考虑和检查数据如何在系统中流动,以及如何做出决策。
对于AI专家和数据科学家来说,这是一个文化挑战。在过去,科学家和产品设计师能够依靠他们令人印象深刻的解决问题的能力,而不必解释解决方案是如何工作的。在今天的AI和机器学习中,讨论的系统通常非常复杂,以至于即使是另一位专家也可能不确定为什么产品决定采用解决方案A,而不是回答B、C或D或整个领域的其他可能结果。
当这些决定涉及诊断患者的健康状况或决定是否可以开立银行账户或乘坐航班时,创建这些系统的个人和公司必须能够解释这些决定背后的逻辑。此时,社会根据当前的社会文化习俗决定制度和结果是否可以接受。正是这种透明度导致了问责制,而问责制反过来又导致了每个人更公平的决策。
同样,我们必须制衡AI和ML,而这些制衡和传统的决策系统一样,大多不是基于规则的。我们需要考虑谁被这些系统忽视、服务不足或落在后面。考虑到如果只有5%,95%的准确率还不够好。设计AI系统的时候,问问自己谁会输。
本文就为大家讲解到这里了。标签: