发布时间:2018.07.09 作者:网易科技 浏览次数:2738次
网易科技讯 7 月 9 日消息,《卫报》撰文揭秘“假AI”的兴起。人工智能近年来已经成为热词走入大众视线,有的科技公司也对外宣称自己的服务是由人工智能驱动的,但实际上它们是披着AI外衣的人工服务。
以下是文章主要内容:
打造一项由人工智能驱动的服务并非易事。事实上,一些初创公司发现,让人类像机器人一样行动比让机器像人类一样行动要更加便宜、更加容易。
“利用人来做事可以让你跳过很多技术和业务发展方面的挑战。很明显,这不能规模化,但它允许你建立起某种东西,在一开始跳过困难的部分。”ReadMe的首席执行官格雷戈里·科贝格(Gregory Koberger)说道。他说他遇到过很多“假AI”。
“这实际上是用人类来对AI进行原型设计。”他称。
《华尔街日报》本周刊文提到了这种做法,重点谈到被谷歌允许访问用户邮箱的数百名第三方应用开发者。
在圣何塞公司Edison Software的例子中,人工智能工程师们浏览了数百名用户(个人身份信息经过处理)的个人电子邮件信息,以期改进“智能回复”功能。该公司没有在其隐私政策中提及有人会查看用户的电子邮件。
《华尔街日报》的文章着重谈到的第三方远非第一个那么做的人。 2008 年,致力于的Spinvox公司被指控利用在海外呼叫中心的人工而不是机器来完成将语音邮件转换为文字信息的工作。
2016 年,彭博社也说过人类每天 12 个小时假装是X.ai、Clara等日程安排服务的聊天机器人,指出了这种困境。这种工作单调乏味让人麻木,员工们都说他们期待着被机器人取代的那一天的到来。
2017 年,商业费用管理应用程序Expensify承认,它一直使用人工来处理至少一部分它对外声称用其“智能扫描技术”(smartscan technology)来完成的收据转录工作。那些收据的扫描照被发布到亚马逊的Mechanical Turk众包劳动工具上,然后由上面的低薪工作者们浏览和抄录那些收据的信息。
“我想知道Expensify的SmartScan用户是否知道输入他们的收据信息的其实是MTurk众包工作者。”“众包工作者、Twitter上的零工经济劳工拥护者罗谢尔·拉普兰特(Rochelle LaPlante)说道,“我在查看某人的Uber收据,上面有他们的全名以及上下车的地址。”
就连在人工智能领域投入巨资的Facebook,也依赖人工来为其通讯应用Messenger提供虚拟助手服务。
在一些情况中,人类被用来训练人工智能系统并提高它的准确性。一家名为Scale的公司为一群人类员工提供自动驾驶汽车和其他由人工智能驱动的系统的训练数据。例如,Scale员工将查看摄像头或传感器传来的信息,然后在边框内给汽车、行人和骑自行车的人贴上标签。有了足够多这样的人工校准,人工智能将学会识别这些物体。
在其他的情况中,企业会假装能成功:告诉投资者和用户它们已经开发出一种可扩展的人工智能技术,但实际上它们是偷偷地依赖于人类智能。
心理学家、Woebot(一种用于心理健康支持的聊天机器人)的创始人艾莉森·达西(Alison Darcy)将该做法描述为“巫师般的设计技术”。
“你是在模拟某件事的最终体验。很多时候,人工智能幕后是有一个人在操控,而不是算法。”她说。她还指出,建立一个良好的人工智能系统需要“大量的数据”,有时候,在进行那样的投入之前设计师想要知道他们想要打造的服务是否有足够多的需求。
她说,这种方法不适用于像Woebot这样的心理支持服务。“作为心理学家,我们受到道德准则的约束。不欺骗别人显然是其中一个伦理原则。”
研究表明,当人们认为自己是在和机器交谈而不是与人交谈时,他们往往更能敞开心扉,会表露更多的信息,因为寻求心理健康帮助被人看作是一种见不得人的事。
来自南加州大学的一个团队用一位名叫艾莉(Ellie)的虚拟心理治疗师进行了测试。他们发现,当退伍军人知道艾莉是一个人工智能系统而不是有人在背后操纵机器时,他们更容易表露自己的症状。
另一些人认为,公司应该对其服务的运作方式始终保持透明。
对于企业假称利用人工智能提供服务但实际上是由人类提供的做法,拉普兰特说,“我不喜欢那样做。对我来说,那感觉是不诚实的,具有欺骗性的,我可不希望我使用的服务出现这样的情况。”
“从工作者的角度来看,感觉我们被推到了幕后。我不希望自己的劳动力为转头跟客户谎称一切的公司所利用。”
这种道德窘境也让人联想到假装是人类的人工智能系统。最近的一个例子是谷歌的机器人助手Google Duplex,它可以用“嗯”和“呃”等语气词来进行极其逼真的电话通话,代人完成预约和预订事务。
在最初引发极大的争议之后,谷歌说它的人工智能会向电话另一端的人类表明自己的身份。
达西说,“在他们的演示版本中,在低影响的对话中,感觉有点欺骗性。”尽管预订餐厅座位可能看起来是一种没什么大不了的互动,但同样的技术如果落入坏人手中,操控性可能会大得多。
例如,如果你能模拟某位名人或政治家的口音,在电话通话中表现得像是真人一样,会发生什么样的事情呢?
达西指出,“人工智能已经让人产生了很大的恐惧,在缺乏透明度的情况下,它并不能真正帮助人们进行对话。”(乐邦)