如果没有办法证明我们的工作,我们就无法有效地验证我们的 机器学习 决策是正确的。我们进行代码审查,道德审查也应该同样重要。
我们必须避免什么
作为数据科学家和机器学习工程师,我们面临一个选择:先解决问题,或者准备接受一个不太理想的人工智能治理解决方案。
最近有几篇文章建议实施 人工智能审查委员会 作为答案。这样做肯定会减少投入生产的风险模型的数量——但可能并非预期的那样。第一个意外影响几乎会立即发生。数据科学家将选择研究风险较 阿尔及利亚电话号码数据 小的问题,因为这些问题更难通过审查委员会。这将大大降低机器学习对组织的商业价值,并抑制增长和创新。
接下来,优秀的数据科学家会另谋高就。在模型开发和部署生命周期中引入官僚主义拖延确实是振兴数据科学组织的一种方式。
我曾在大型公司工作,并负责企业 安全。一定有比提倡另一个“不”的官僚部门更好的方法。我们应该积极寻找方法,让整个企业中的合作伙伴,即使在官僚主义更严重的领域,也能说“是!”。
自上而下、事后严厉的执行审查委员会提出的更好解决方案是结合合理的治理原则、与数据科学生命周期相匹配的软件产品以及整个治理过程中的强大利益相关者协调。我们采用的工具必须:
无缝契合数据科学生命周期
保持(最好是提高)创新速度
满足利益相关者当前和未来的需求
为非技术利益相关者提供自助服务体验
在实施上述措施的过程中,我们有效地创建了一个业务级的持续创新系统。在部署到生产环境之前,需要完成分阶段的检查和测试。每个步骤都已与利益相关者进行了预先协商,并内置到数据科学生命周期中,数据科学家完全清楚需要什么才能通过他们的模型推动业务价值。