虽然最近在面板上,Landing AI创始人、Google Brain创始人之一的Andrew Wu描述了这样一个时刻,当他读到OECD AI道德原则的工程师时,工程师对他说的话给了他如何改变他所做的事情,而没有指示他去工作。
吴荣奎说,这就是为什么任何行为准则都应该由ML从业者设计,并为他们设计。嗯,微软研究院肯定听说过,因为它最近和来自十几家科技公司的近50名工程师一起创建了AI伦理清单。
据作者称,该清单旨在促进组织内部的对话和“良好的紧张关系”。这份清单避免了“是”或“否”的问题,使用了“双重检查”等词汇,并要求团队“定义公平标准”。
名单中的所有贡献者均致力于政府服务、 、医疗和教育等领域的37项独立产品、服务或咨询服务。受访者姓名未被识别,但在人工智能子领域做了大量工作,如计算机视觉、自然语言处理和预测分析。
作者希望他们的工作能够启发未来的工作,共同为致力于解决AI道德问题的从业者设计指导性支持。他们说,人工智能伦理的当前焦点和人工智能从业者的需求之间存在脱节。
“尽管人工智能很受欢迎,但其伦理原则的抽象性使从业者难以操作。因此,即使没有最佳意图,如果没有其他机制来保证从业者做出道德决策,人工智能的道德原则也无法实现其预期目标。这些名单似乎很少在从业者的积极参与下设计。然而,当列表被引入其他领域,而没有从业者参与设计和实施时,它们就会被滥用甚至被忽视。”
标签: