微信号:ai-front

介绍:面向AI爱好者、开发者和科学家,提供最新最全AI领域技术资讯、一线业界实践案例、搜罗整理业界技术分享干货、最新AI论文解读。每周一节技术分享公开课,助力你全面拥抱人工智能技术。

五问Google Duplex:它是否合乎伦理道德?

2018-05-16 18:11 Chris Butler
译者 | 张健欣
编辑 | Vincent
AI 前线导读:近日,谷歌在 Google IO 大会上演示的 Duplex 项目惊艳全场。许多人工智能社区的人将它称颂为技术结合的一次巨大进步,但也不人提出担忧:它合乎伦理吗?它合乎道德吗?它合法吗?它是以人类为中心的吗?它被坏人利用了怎么办?本文将围绕这些问题,逐一进行探讨。

更多干货内容请关注微信公众号“AI 前线”,(ID:ai-front)

近日,在 Google IO 大会上,一个名为 Duplex 的项目通过电话将对一个谷歌助手的请求和一个现实世界的真实业务连接起来。

你可以通过下面的链接观看其令人印象深刻的演示:


许多人工智能社区的人立即将它称颂为技术结合的一次巨大进步。

然而,有人担忧:

谷歌助手通过使用升调和语言中的其它特殊语调,像人类一样发音,误导电话另一头的人以为正在通话的是一个人类,这种道德上的错误让我真的感到非常困扰不安。

虽然对于那些还没有不良用途的技术的任何普遍直觉反应,我经常持怀疑态度,但是关于这件事还是有一些非常好的观点应该被讨论。

它合乎伦理吗?

上周,我参加了 edX(译者注:一个大规模开放在线课堂平台)上的一个微软主办的名为“数据和分析领域的道德与法律”的在线课程。对我来说,最有趣的是他们看待伦理价值观的一个非常简单的框架。

这个框架分为两个价值体系:

1)基于他人(在本例中,指的是接听电话的业务人员)幸福的价值观;

2)基于自身(谷歌和我混合的)幸福的价值观。关于他人的幸福包括:非受苦、人身自由、平等。自身幸福集中于品德和信任。

让我们逐个看下这些价值观:

  • 非受苦——在本例中,电话接听人看起来并不会以某种方式受苦。如果有的话,我敢打赌机器会始终彬彬有礼并抓到要点,所以人们不会在电话中没完没了。

  • 人身自由——电话接听者仍然可以按他们认为合适的方式反应,他们可以询问他们需要知道的问题,并且他们甚至可以拒绝接听来电。

  • 平等——可能会缺失平等,因为我使用这种服务来节省了我的时间,但是并没有尊重接听者的时间。一个很好的问题是,对于那些通过支持自动化系统而不尊重我的某些意愿的企业,我们如何权衡这点?

  • 品德——我没有看到,如果它声明它是一个帮我预定服务的助手,对我的品德有什么损害。

  • 信任——这会是最有问题的价值观。随着这样的电话越来越多,人们还会相信 Duplex 或任何呼叫人所声称的身份吗?

它合乎道德吗?

谷歌拥有这种服务是合乎道德的吗?我不认为他们会用这项技术作恶。

使用这项服务的人是合乎道德的吗?这基于他们自己持有的道德准则。不幸的是,我们在不同的时代持有不同的道德准则。

在社会中,我们确实都尝试进行道德自律,但它实际上归结于什么是法律强制的,因为除了 Twitter 上的群情激愤之外并没有道德法庭。

它合法吗?

基于我对机器人呼叫(robocalls)的了解,这是合法的。例如,它并不是“不恰当或不适宜的“,也没有群发向“一大群接收者“。

然而,我不确定企业是否能够一起在技术上自愿放弃这种类型的呼叫。

这意味着我们应该管控这些技术吗?或许是的。魔鬼肯定存在于细节之中,虽然...

我们应该让人工智能听起来跟人类的声音不一样,这和我们在没有气味的天然气中添加有味的添加剂的原因一样。

关于如何管制这类并不是 100% 相似的事情是一个很大的问题。我们管控天然气不是因为它关乎道德或伦理,而是因为它很危险。

我最大的担忧是,国家管控只会让谷歌的地位更加强大。他们有足够的金钱 / 时间 / 人来把这些标准付诸实践。规模较小的公司由于资源有限,没有能力与之竞争。

它是以人类为中心的吗?

我发现这个问题比较容易回答,而且我敢打赌谷歌就是因为这个才创造 Duplex 的。它在整个循环中帮助每一个人。

对于那些想要预定的人来说,他们节省了必须与企业打电话协商的交流时间。这也是为什么像 Seamless 这样的服务这么流行的原因。

对于收到呼叫的人来说,他们正在为一个不愿意允许以某种方式自动预订的企业工作。语音恰好是系统与之交互的最简单的方式。

一个很大的问题是,企业是否应该选择放弃这种类型的交互。当然,这可能对客户是不利的,但那是他们如何运营企业的选择。

有人问过在这些企业工作的人会在意这点吗?甚至他们会在乎吗?

被坏人利用怎么办?

大部分人担心的是,其他人可能会使用这项技术做坏事。例如,我们可以想象,你可能会收到机器人程序集中关于出售分时度假房的呼叫,通过要求虚假支付来诈骗你以及普遍的数据采集。

技术的所有不良用途一定意味着我们不应该拥有这种技术吗?显然情况并非如此。这有点像,被用于恐怖袭击的汽车是否应该被禁止。当然,来自汽车的好处超过了那些非常小的情况所带来的坏处。

细微差别如果有的话,这是一个棘手的话题。在上下文中需要有细微的差别。

这会导致许多愤慨和偏袒。

我们应该讨论这些细微差别,我们应该讨论我们对于自身生存的世界的混乱信仰的信任意味着什么。

我很想听听你的想法。

  作者自述

我帮助许多团队了解以人工智能为中心的方案应该解决的实际业务问题。我们共事的团队通常都被要求用他们拥有的数据“做一些有趣的事情”。我们帮助他们避免偶然事件的关联所产生的局部最大值,专注于解决巨大的商业问题。我的背景包括超过 18 年的产品和业务开发经验,任职公司包括微软、KAYAK 和 Waze。在 Philosophie,我曾创建了例如针对机器的同感映射和困惑映射等技术,来在构建人工智能产品时创建跨团队的结盟。如果你想要了解更多信息或与我联系,可以通过电子邮件、LinkedIn 或者访问 http://philosophie.is/human-centered-ai。

查看英文原文:

https://towardsdatascience.com/is-google-duplex-ethical-and-moral-f66a23637640

AI前线
紧跟前沿的AI技术社群

如果你喜欢这篇文章,或希望看到更多类似优质报道,记得点赞分享哦!

┏(^0^)┛明天见!

 
AI前线 更多文章 坚持不作恶,谷歌数十名员工集体辞职抗议AI军事合作 特朗普要帮中兴重返市场?这事没那么简单 机器学习太难了!AI大佬们给你指条明路 吴恩达的7条机器学习训练秘籍 为防中国夺走AI老大地位,美国白宫出手了
猜您喜欢 【周三公开课】《自然语言处理(NLP)在标签系统中的应用》阿里巴巴 曾俊瑀 PHP RSA2 签名算法 程序员健康生活指南总目录 腾讯设计师做了100个弹框后总结 Linux安全审计机制模块实现分析(21)-演示验证方案操作步骤