AI ethics

伦理地训练人工智能

在人工智能领域,最大的挑战之一是开发出不仅智能,而且行为符合与人类相一致的伦理规范和价值观的 AI 系统。一种方法是以法律典籍和判例法作为基础来训练 AI。本文探讨了这种方法,并审视了用于创建具有类人人类规范与价值观的 AI 的补充策略。我也曾以荷兰 AI 联盟的名义向司法与安全部提出过这一建议,并在我们受该部委委托撰写的一篇战略论文中阐述过。

使用 GAN 来识别漏洞

生成对抗网络(GAN)可作为发现立法空白的工具。通过生成超出现行法律范围的场景,GAN 可以揭示潜在的伦理困境或未被覆盖的情形。这使开发者能够识别并弥补这些漏洞,从而为 AI 提供更完整的伦理数据集以供学习。当然,我们也需要法律学者、法官、政治家和伦理学家来对模型进行精细调整。


伦理训练人工智能的可能性与局限性 

尽管以法律为训练基础是一个稳妥的出发点,但仍有若干重要的考量:

  1. 规范与价值的有限表现 法律并未涵盖人类伦理的所有方面。许多规范和价值观由文化决定,未被正规文件明确规定。仅以法律为训练基础的人工智能可能会错过这些微妙但关键的方面。
  2. 解释与语境 法律文本通常复杂且存在多种解释。若缺乏人类理解语境的能力,人工智能可能难以将法律在具体情境中以伦理负责的方式应用。
  3. 伦理思维的动态特性 社会规范和价值在不断演变。今天被接受的事物明天可能被视为不道德。因此,人工智能必须具备灵活性和可适应性以应对这些变化。
  4. 伦理与合法性 重要的是要承认,合法并不总等同于合乎伦理,反之亦然。人工智能应具备超越法律字面、理解伦理原则精神的能力。

 

Ethische normen AI


在人工智能中实现人类规范与价值的补充策略

要开发出真正与人类伦理产生共鸣的 AI,需要更为全面的整体方法。

1. 融入文化与社会数据

通过让 AI 接触文学、哲学、艺术与历史,系统可以更深入地理解人类处境以及伦理问题的复杂性。

2. 人类互动与反馈

在训练过程中引入伦理学、心理学和社会学专家,可帮助完善 AI。人类反馈能提供细微差别并纠正系统的不足之处。

3. 持续学习与适应

AI 系统应设计为能从新信息中学习并适应不断变化的规范与价值观。这需要一个支持持续更新与再训练的基础设施。

4. 透明度与可解释性

确保 AI 决策透明且可解释至关重要。这不仅有助于建立用户信任,也使开发者能够评估伦理考量并在必要时调整系统。


结论

基于法律典籍和判例法来训练 AI 是朝着让系统理解人类规范与价值观的一步有价值的做法。然而,要创造出真正以类似人类方式行事的伦理 AI,仍需多学科的方法。通过将法律与文化、社会与伦理洞见相结合,并在训练过程中整合人类专业知识,我们可以开发出不仅聪明而且明智且富有同理心的 AI 系统。让我们来看看接下来的内容 未来 能够带来

补充资源:

  • 关于人工智能的伦理原则与(不存在的)法律规范。 本文讨论了人工智能系统为达到可信赖性必须满足的伦理要求。 数据与社会
  • AI治理解释:概述人工智能治理如何促进组织内伦理且负责任的AI实施。 AI人员培训 
  • 负责任AI的三大支柱:如何遵守欧盟AI法规。 本文论述了根据欧盟新法规的伦理AI应用核心原则。 Emerce
  • 以伦理责任培养AI研究人员:一个案例研究。 一项关于以伦理责任为重点培养AI研究人员的学术研究。 ArXiv

Gerard

Gerard 是一名活跃的 AI 顾问兼管理者。在大型组织拥有丰富经验的他能够非常迅速地拆解问题并推进到解决方案。结合他的经济学背景,他能做出符合商业利益的决策。