人工智能曾经是科幻小说中的东西。但今天,它以聊天机器人、语音助手甚至谷歌地图的形式融入了我们的日常体验。事实上,根据Statista的数据,现在有84%的全球商业组织认为AI会给他们带来竞争优势。
人工智能可能很常见(至少在一个简单的层面上),但要将其发展到成熟就更加难以捉摸了。训练机器像人类一样学习、反应和操作需要在无数情况下输入大量数据。
对于组织来说,面对许多潜在的问题,仅仅管理它们是非常困难的。最常见也可能是最危险的问题是数据偏差。如果组织计划在人工智能中表现良好,那么处理这种偏见应该是它的首要任务。否则,公司将面临算法交付错误结果的风险,并可能疏远大多数客户。
解决这个问题的第一步是首先了解算法是如何变得有偏差的。每个开发人员(因为这个原因,每个人)都有有意识和无意识的偏差,这将影响他们最初的开发,并且由于算法的智能只像训练数据一样聪明,这可能会成为一个危险的先例。不良数据可能导致有偏见的AI做出主动伤害人和人的决策。然而,尽管人类是所有偏见的根源,但他们也是消除偏见的关键。
如今的消费者希望AI变得更加自然和人性化,但要实现这一点,算法中输入的数据必须更能代表现实世界。
大规模收集真人的各种训练数据就是做到这一点的方法。利用经过审查的涵盖许多国家、年龄、性别、种族、文化、政治派别、意识形态、社会经济和教育水平的全球社区,该组织可以验证其算法正在产生准确的、类似人类的和真正有用的结果。这适合于获得训练数据和正在进行的数据收集的基准集,因此建议引入允许持续反馈和修改的结构。
也许有些用户已经报告了产品的一些问题,比如语音或面部识别,然后这些反馈可以整合到下一个版本的算法中,供未来的用户使用。
现实是,尽管技术无限实现,AI也只能和写它的人一样好。当我们考虑到每个人所有有意无意的偏见时,这会造成很多问题。在某种程度上,人工智能总会有偏差,但通过在发布前收集实际的人类交互,企业可以训练自己的算法,获得能够为客户提供真正价值的结果。
我们已经到了人工智能开始影响决策的地步,这些决策将主宰我们社会中个人和集体的未来。因此,开发这些算法的公司必须发挥积极作用,让AI更好地反映社会,让每个人都更公平。
标签: