在没有充分理解隐私的情况下实施技术的潜在后果, 偏见和可能的歧视仍然是组织在整合新技术时面临的持续威胁. 当这些问题仍然存在时, 它影响到每个人公平参与社会的能力. 其中包括个人名誉损害, 金融的影响, 诉讼, 监管反弹, 隐私问题,最终降低了客户和员工的信任. 在文章中 “为什么你需要一个人工智能伦理委员会” by 里德布莱克曼, 作者指出,“人工智能道德风险计划必须从高管层面开始,并渗透到公司的各个层级, 最终, 技术本身.“着眼于人工智能(AI)和机器学习(ML)的实现, 这个问题已经到了一个关键的转折点. 它要求组织平衡运营目标和个人权利,并创造了将道德嵌入人工智能开发生命周期的基本需求.
整个行业的许多贡献者都试图确定需要什么, 甚至提供框架来指导部署, 但是组织未能普遍采用和实施这些实用框架. 一些组织将其实现团队的成本或能力列为挑战. 对于那些没有将道德嵌入到AI和ML开发生命周期中的组织, 识别风险可能存在的地点或时间的过程没有定期发生. 整个行业都在呼吁提高人们的意识,甚至在组织内部建立人工智能伦理委员会.
随着世界越来越关注个人权利和对社会正义问题的认识, 采取标准化办法的必要性已变得很明显, 无论实施的影响是高还是低. 采用道德的人工智能和机器学习生命周期来确定组织是否需要解决隐私方面的风险, 随着能力的不断发展,这些AI和ML实现中的偏见和歧视控制变得越来越重要. 提高对组织内部可能面临的潜在问题以及可能的组织风险的认识是至关重要的. 由于这些复杂的系统决策需要被越来越多地理解,以建立信任, 我们必须在开发过程中考虑道德和隐私影响,并在部署后对其进行验证.
通过采用道德的人工智能和机器学习生命周期,组织可以采取一些基本步骤,以实现道德技术的标准化,包括:
- 道德文化,人工智能道德风险计划必须从高层开始,并渗透到整个组织.
- 〇经验和专家使用任何技术, 让人们了解如何正确地实现技术可以确保组织了解相关的风险. 专家必须从他们的文化角度理解技术的用例和影响.
- 验证结果,风险和道德挑战需要在部署后进行验证,以确保与预期结果没有任何变化.
尽管人们的意识在增强, 这些问题仍然是全球许多组织的基本问题, 我们还没有采取统一的方法来识别这些系统性问题. 我们必须确保组织了解这些基本问题,并采取适当措施,在潜在的偏见和歧视长期存在之前考虑其影响.
编者按: 想要进一步了解这个话题,请阅读Josh Scarpino最近在《澳门赌场官方下载》上发表的文章, “评估人工智能和机器学习中的伦理挑战” ISACA杂志,第4卷2022.
ISACA杂志 今年满50岁! 与我们一起庆祝,不要忘记,您仍然可以通过访问您的 偏好中心 选择加入!