来自一个ai:
——不不不,听我解释,我是真的ai!
——怎么证明?
——不然你……拔一下插头?
还记得前段时间谷歌演示的智能助手duplex吗?它能模仿人类打预约电话,甚至还会发出人类惯用的语气词,接电话的店员甚至没有意识到,电话的另一端根本就不是真人。
然而,你可能没注意到的是,当开发者们共同致力于让ai变得更像人时,有些创业公司却打起来了另外的算盘:让人冒充ai。
谷歌ceo介绍duplex|google
对于这些公司来说,这一招既可以省下大量的研发费用,还可以忽悠到投资。正如readme公司的ceo格雷戈里·科贝格(gregorykoberger)所说的那样,“把活儿交给真人,能让你跳过大量技术和业务发展方面的挑战。”
他在推特上吐槽道:“如何建立一家ai创业公司?雇佣大量廉价劳动力假扮成假扮人类的ai。等着ai被发明出来。”这种做法已经是业界周知的秘密了,但是大部分消费者还蒙在鼓里。
创业第一步——假装有ai
前不久,据《华尔街日报》报道,谷歌允许大量第三方应用的开发者读取gmail用户的邮件。在被曝光的第三方公司中,圣何塞的艾迪森软件公司(edisonsoftware)就在用假的ai。他们的ai工程师会浏览用户的个人邮件,来改善所谓的“智能回复”功能。不过,他们的隐私政策并未提及人类会看到用户的邮件。
其实,早在2008年,就有一家名为spinvox的公司作假了。他们号称能将语音留言转化为文字,结果被指控这些工作都是海外电话中心的人工来完成的。
2016年,据彭博社报道,在x.ai和clara这样的日程应用公司,人类员工每天都要花12小时假扮ai聊天机器人。这项工作太令人头脑发麻了,以至于员工们说他们期待机器人能真正取代人类。
2017年,业务支出管理应用expensify承认,他们通过人工转写收据,而不像对外声称的那样用“智能扫描技术”。扫描过的收据会被发布到亚马逊的劳力众包平台mechanicalturk上,然后接受低薪的人来阅读和转写这些收据。
人工并不便宜
在某些情况下,人类被用于训练ai系统,来提升ai的精确度。例如,名叫scale的公司用大量的人类工作者,向自动驾驶系统和其他ai系统提供训练数据。此外,谷歌的duplex也用到了人类训练者。
m聊天界面|facebook
facebook曾在2015年推出虚拟助手m的测试版。m能预约和提供礼物建议等,只不过,它也是由人工协助的。当时我们用不到它,因为它只对旧金山湾区的1万人开放,而现在,facebook彻底关闭了这一项目。虽然我们用不上它了,facebook表示m的特性将会保留在聊天应用messenger里。
这种人工协助ai的出发点其实是好的,ai系统会在人类的协助下学会应答各种指令,最终变得更加智能。然而,它的代价还是有点大。
首先,facebook需要大量昂贵的劳动力,因此将服务扩大不太可行。
其次,当m完成一项任务时,用户总是会提出更难完成的要求。就这样,m要达到的自动化程度远远超过了当前的机器学习技术。
ai技术应该更加透明
心理学家艾莉森·达西(alisondarcy)表示,“作为心理学家,我们有伦理准则作为指导。其中,不去欺骗人们就是非常明确的一项。”
woebot可以提供心理方面的支持|woebot
研究表明,当人们认为自己在和机器而非人类交谈时,他们更愿意袒露心声,这是因为精神卫生方面的求助常常和污名化联系起来。南加州大学的研究团队用虚拟心理咨询师ellie测试了这一研究。他们发现,当患有ptsd的退伍军人知道ellie是ai,而不是人类操作的机器时,他们更有可能坦诚讲述自己的症状。
另外一些人认为,公司们应该一直公开自己的服务是如何运行的。
“我不喜欢人们假装成ai。”罗谢尔·拉普兰(rochellelaplante)说,他为很多提供假ai服务的公司工作过。
“对于我来说,这不太诚实,而且有欺骗的意味。我希望自己正在使用的东西不是这样的。而从工作者的角度来看,这就像是我们被推到了幕后。我不希望我提供劳动的公司转变态度,而且向客户隐瞒真相。”
这样的道德困境也出现在试图让ai更像人类的项目中,例如谷歌的duplex。该项目在最初演示的时候,ai并没有向打电话的对象表明身份。duplex立刻引发了争议,人们担心这种略带欺骗性的技术会被有心之人利用。
“人们对ai已经有很多主要的担忧了,而缺乏透明并不能帮助我们解决问题。”达西说。
作者:oliviasolon
编译:eon
编辑:ent、东风
声明:本网站发布的内容(图片、视频和文字)以原创、转载和分享网络内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。邮箱:tougao@22.cn。