成立AI开发伦理委员会迫在眉睫
2019-04-18 12:31:21
  • 0
  • 0
  • 0

来源:FT中文网

作者:玛格丽特•赫弗南

译者/马柯斯

赫弗南:AI发展的速度使成立伦理委员会无论是对普通公民、相关企业员工、还是在乎社会责任的公司,都是一个紧迫任务。

当一家企业成立伦理委员会时,该决定就是承认了现有的人员和流程没能很好地应对关键挑战。但这里存在一个悖论:如何为你知道自己尚未完全理解的问题设计解决方案。

不久前,谷歌(Google)陷入了这种悖论。在决定有必要探索其人工智能(AI)工作的影响后,该公司任命一家右翼智库的负责人和一家无人机公司的首席执行官为其新成立的AI伦理委员会委员,此举招致了外界的强烈批评。

伦理本质上是审视我们的决定对他人影响的责任。因此,伦理委员会要向强者汇报,但担负着保护弱者的责任。例如,在科学和医学领域,伦理委员会通常被用于监督实验性工作,这些工作存在风险,但人们对这些风险知之甚少。

由于AI仍然是一项可能跨越客观数据处理与伦理决策之间界限的实验,它引发了一些从事该领域工作的人员可能无法做出判断的伦理问题。谷歌为其伦理委员会挑选的委员表明,它要么并未理解这一点,要么就是对该问题的复杂性视而不见。

并非只有谷歌面临这种困境。所有科技公司可能都不得不面对这一问题。当今技术的发展速度及其运行规模,意味着通过试错法来学习,会带来无法量化的社会和政治风险、以及可量化的财务损失风险。正如数学家凯茜•奥尼尔(Cathy O’Neil)喜欢说的一句话,算法只是用数字表达的观点。但关于它们究竟是谁的观点、支持哪些规范,仍然存在争议。

组成伦理委员的应该是这样一群人:无利益相关,有能力就社会可接受、而不仅是技术上可行的标准达成共识。他们必须对这些系统有足够的了解,能够看清危险蕴含在如下这些地方:偏见、不完整的数据集和不透明的决策。参与者必须是机敏的思考者,能够批判性地倾听和学习,可以接受专家意见但不拘泥于特定的技术、公司战略或意识形态。最重要的是,他们必须能够提出异议。

他们的工作是评估AI技术的新应用在伦理方面的影响,保护和捍卫新技术的使用者或被动接受者的利益。这是一项艰巨任务。但这并非不可能。

最近刚刚离世的哲学家玛丽•沃诺克(Mary Warnock)与其人类受精与胚胎学伦理委员会在上世纪80年代实现了这一目标。她尝试并且成功达成了持久共识。在沃诺克去世前几个月,我在与她交谈时曾问她,是什么让她得以完成这项艰巨任务。她表示,哲学家的身份赋予了她一项优势:哲学家没有自己的课题;他们受到的训练就是,就别人的事情进行清晰的思考和真诚的表达。她当时表示对自动化和AI感到担忧,而且她认为,由于市场没有伦理的概念,你需要咨询那些有伦理概念——或至少懂一种伦理主张——的人。他们应该能够超越自己本身的专业领域去倾听、学习和思考,以阐明新技术或创新的成本和收益。

当涉及到科技公司的伦理判断时,这样的人可能非常难找。一位高管最近向我承认了这一点,他表示欢迎欧盟监管,因为欧盟将向他所效力的那家相当具有竞争力的公司指明界限所在。否则,该公司不会承认任何形式的界限。

周一,欧盟出台了AI开发伦理指导方针,为“值得信赖”的项目制定了7条原则。但为了让这些原则真正发挥威力,所有AI技术的应用都应该接受伦理委员会的审查。伦理委员会的成员应该是独立的、具有广泛代表性的——足以确保他们受到公众信任。他们还必须能够做出公众可以理解的决定。

伦理委员会的办事程序应向公众公开。应当鼓励异见,即便只是表明所有反对意见都得到了考虑。当人们可以看到决策过程是公平的时候,他们更容易相信他们不认同的决定。

AI发展的速度使这成为了一项紧迫任务——对于害怕受到不公和非法对待的公民来说,是这样;对于担心上了贼船的员工,也是这样;对于那些在乎社会责任的公司,同样是这样。

最新文章
相关阅读