来源:
这只是 开发人员理所当然需要遵循的道德检查清单的一部分。监控和评估是部署 应用程序后的最后一步。如果数据开始出现偏差,专家需要查看驱动 的模型,或者他们必须回到第一原则并重新评估正在自动化的业务模型或功能。将 道德付诸行动意味着要像飞行员对待自动驾驶仪一样对待 ——他们非常乐意使用它们,但如果出现问题,总会 伯利兹电话号码数据 有人类飞行员随时接手。同样, 也不应该被放任不管——身边应该总是有人确保 按照计划运行。
测试人工智能是否在履行职责的标准是可解释性。算法做出的任何决定都应该对数据科学家和“最终用户”都具有可解释性。前者会很乐意了解用于训练模型的数据——其特征、分布、偏差——以及模型的工作原理(以及它停止工作的地方)。 现模型做出任何决定的原因。它基于什么输入,为什么会做出这样的选择?我们为什么可以相信这个结果?
可解释的人工智能 其前提是,每个 决策的数据点都可以随时识别和解释。它打破了长期以来 的黑匣子,使其变得透明——这种理解是获得信任的前提。 数据科学家、领域专家、最终用户、政客、监管机构和消费者都要求人工智能能够坚持自己的决定,因为每个决定都可以解释。这条通往可解释人工智能的新道路正在不断发展,这就是道德在行动。未来,人工智能招聘将是负责任的招聘。