您的位置首页 >网络行情 >

技术人员正在创造人工智能,以帮助我们融入人类。这是方法

当您善于同情您的全职工作时,精疲力尽只是人类。

没有比客户服务代表更了解这一点的客户服务代表了,他们需要充满活力和同情心地进行每次对话-无论是他们的第一天还是第60天。他们的工作是即使最困难的客户也能得到理解和尊重,同时仍向他们提供准确的信息。通常情况下,这是一项艰巨的任务,导致通话两端都感到沮丧。

但是在过去的几年中,出现了一个不太可能的助手:人工智能工具,旨在帮助人们利用并保持“人类”特征,例如同情心和同情心。

这些工具之一就是名为Cogito的平台,该平台以著名的笛卡尔哲学Cogito ergo sum命名(“我想,因此我就是”)。这是一个AI平台,可以监视大型公司(其中包括MetLife和Humana)的销售和服务需求,并为员工提供有关客户交互的实时反馈。

在通话过程中,员工可能会在屏幕上看到Cogito弹出警报,鼓励他们表现出更多的同理心,增强嗓音,说话慢一些或反应更快。在公司内部的仪表板上对交互进行评分和跟踪,经理可以立即衡量团队中不同成员可能需要做什么。

作为大都会人寿残疾保险部门的呼叫中心代表,Conor Sprouls不断使用Cogito。在通常的一天,他会接听30至50个电话。每次持续5到45分钟,具体取决于问题的复杂程度。

Sprouls在2019年9月12日上午的第一个呼叫者是患有焦虑症的人,Cogito一次对Sprouls进行通通提醒是善解人意,几次响应迟缓(在寻找有关某人主张的文件时并不罕见) ,Sprouls解释)。

Cogito首次推出时,一些员工担心持续的主管监督和通知超载。例如,他们对同情提示的反应太频繁了,有一次,该工具认为代表和客户彼此交谈,而实际上却在笑。但是Sprouls表示,每次通话都会使系统更加直观。至于监督,呼叫中心的对话总是被记录下来并发送给主管,因此并没有太大的变化。

Sprouls说,事实上,Cogito甚至可以更真实地反映性能。“不能指望主管听每个同事的电话,因此有时当我们只是随机选择电话时,可能会碰运气–可以通过简单的电话监视一个同事,他说。“ Cogito将为您提供最终结果:谁需要做些什么。我认为我们很多人真正看待Cogito的方式是作为个人工作教练。”

大都会人寿使用Cogito已有大约两年的时间,尽管它最初是以试点方式引入的。

大都会人寿的主管艾米丽·贝克(Emily Baker)大约有17人组成的团队,她的同事在试点过程中都受益于Cogito的暗示。她说,一个同事最喜欢的是能量提示。一天结束时,他会开始在座位上闲逛,而这种姿势意味着他没有那么大地发出声音。当能量提示出现(咖啡杯图标)时,他笔直坐起来,说话更加有力,因此他看起来更加参与通话。

贝克说:“我喜欢这样一个事实,即我可以在我特定的主管仪表板上总体上看到我们作为一个团队的工作方式。”“每个人都在通话吗?每个人都会遇到死气吗?您可以深入研究每个人,这对于一对一的指导确实非常有用。”

现在,大都会人寿(MetLife)正在将Cogito推广到其更多面向客户的部门-索赔,直接销售,客户增长。该公司还计划将使用该平台的员工人数增加一倍以上(从1200名增加到3,000多名)。

大都会人寿全球客户解决方案负责人克里斯汀·波兹南斯基说:“这有点奇怪。”“我们正在使用技术和人工智能来帮助我们的员工展示更多的人类行为。这是您没有直觉想到的。”

增长趋势

Cogito的联合创始人兼首席执行官Josh Feast在新西兰儿童与家庭部的咨询工作中说,他了解到社会工作者可能在三到五年内就会感到倦怠。具有讽刺意味的是,他感到震惊-一种旨在关爱人们的职业不利于照顾该行业的人们。

一个想法开始形成,并在麻省理工学院媒体实验室的一门课程中得到进一步发展,在此期间,盛宴得到了一个重要启示:大型组织很好地理解了数据,因此,如果他想帮助大型组织内部的人,他需要展示自己的观点。公司团队可以理解的一种语言。他说:“这几乎就像被雷击一样。”

于是Cogito诞生了。在研发阶段,Feast及其联合创始人为美国政府国防高级研究计划局DARPA工作。该机构考虑到与PTSD斗争的士兵,DARPA向Cogito小组提供了资金,用于研究心理困扰的研究援助。因此,盛宴开始研究护士如何与患者互动。

“在一个真实的'aha'时刻,我们发现,如果您可以使用该技术来理解对话,并测量护士与患者之间的对话舞蹈,您就可以开始阅读他们所表现出的同情和同情程度。 ...以及患者对这种互动所产生的态度,” Feast说。

他构建了仪表板来显示同情和同情的量度,他发现了一些值得注意的东西:当人们与某人交谈时获得实时反馈时,对话期间的同情和同情水平会提高。这种认识是Cogito未来的关键。

但是Cogito并不是旨在帮助我们融入人类的唯一AI驱动工具。

蝴蝶

Butterfly是一款AI工具,旨在帮助管理人员同情他们的员工并增加工作场所的幸福感。将Butterfly嵌入工作场所消息传递系统后,它将充当聊天机器人,即基于员工调查和反馈实时执行高管教练的经理。Butterfly分析后者以衡量压力,协作,冲突,目标,创造力等的水平。然后,它为管理人员提供了号召性用语和阅读材料,以帮助他们解决团队中的问题。例如,团队压力很大的高管可能会收到一篇有关如何创建更具同情心的工作环境的文章。

联合创始人兼首席执行官David Mendlewicz说:“简而言之,Butterfly的创建是为了帮助经理在他们的……团队的敬业度和整体幸福感方面达到目标。”“考虑一个由AI驱动的幸福助手或由AI驱动的领导教练。”

支持iv

另一个基于AI的移情工具是Supportiv,这是一个同伴咨询平台,旨在使用自然语言处理来应对日常的心理健康问题,例如工作压力,焦虑,孤独和与亲人的冲突。用户回答了Supportiv的主要问题(“您的挣扎是什么?”)后几秒钟,它们被归类到一个匿名的,针对特定主题的对等支持小组。

每个小组都有一位训练有素的现场主持人(还可根据需要安排其推荐专业服务或紧急服务的人员),并且AI算法可扫描对话以检测心情,语气,参与度和互动方式。在主持人方面,弹出提示-用户X一段时间没有参与对话,或者用户Y共享了一个尚未解决的想法。联合创始人Helena Plater-Zyberk对Supportiv的下一次迭代的愿景:额外的AI进步可以帮助识别聊天中孤立的用户,并警告主持人,并提出有关如何对这些人产生更多同情的建议。

Plater-Zyberk说,此举的目的是创建“超人主持人”-使用同情心,同情心和超警惕性,比任何装备精良的人都能更好地促进群体聊天。

IBM的Project Debater

最后,当谈到“我认为,因此我就是”这一理论时,IBM的Project Debater恰如其分。它是由科技巨头在一月份推出的,被誉为第一个可以与人类辩论复杂想法的AI系统。Debater的核心是理性思考和同理心-考虑相反的观点并充分理解对手,从而能够逐一解决他们的论点并最终赢得他们的胜利。

IBM Research AI技术副总裁Aya Soffer博士设想了Debater的各种现实应用程序-决策者希望了解他们正在考虑的法律所涉及的范围。例如,在禁止学校打电话(法国政府于2018年通过的一项法律)的情况下,等式两边的先例,利弊是什么?金融分析师或投资顾问可能会使用Debater对新型技术可能对市场意味着什么或不意味着什么做出明智的预测。

我们通常会寻求支持性论据,以便说服自己或他人。但是索弗说,无论是改变主意还是加强先前存在的观点,考虑到反对意见都可能更有力。IBM Debater旨在帮助这种同理心和更高层次的逻辑思维。

陷阱和隐私

与所有新技术一样,这种类型也有一些用例。

首先,用于训练算法的数据中可能存在系统偏差。例如,如果使用主要表现出同情心的白人男子的案例进行授课,则可能会产生一个系统,该系统显示出女性和少数族裔的较低产出。处于医疗状况的呼叫中心代表所显示的能量可能比所感知的标准少,但会尽力以其他方式弥补这一点。

麻省理工学院媒体实验室情感计算研究小组的创始人兼主任罗莎琳德·皮卡德(Rosalind Picard)说,这就是为什么在向其主管共享之前向个人提供此数据的好主意。她认为,首先与经理分享员工互动中的数据(例如同情,同情和能量水平)是违反道德规范的。

然后,这种技术有超出其预期用例的诱惑-有助于促进真正联系的有用提示-而是驱动由恐惧引发的不真诚互动的驱动力。毕竟,类似的技术工具是社会评分系统基础的一部分(想想Black Mirror的“ Nosedive”情节)。到2020年,中国计划为每个公民公开公开提供的社会信用评分。该分数将帮助确定个人是否有资格获得公寓,他们提供的旅行优惠,他们可以为孩子们上的哪些学校,甚至是否可以在不排队先付款的情况下看医院医生。

专家预测,在未来五年内,我们将在“情感分析”方面取得长足进步。“情感分析”是一种自然语言处理,可以通过分析面部表情和肢体语言或文字回复来识别人的情绪。

但是对于斯坦福大学计算与认知实验室的副教授Noah Goodman来说,存在一个道德难题:与这些系统学习的信息有关的正确做法是什么?他们是否应该有目标-提示我们,调整环境或向我们发送工具,使我们感到更快乐,更富有同情心,更富有同情心?该技术应如何处理关于我们对他人的感受,我们在任何给定交互中的表现的数据?它应该向谁提供这些信息?“在这里,蠕变边界始终很近,” Goodman说。

另一个问题?人工智能根本无法复制或完全理解人类的情感。以Cogito为例。假设您是整天与客户通电话的客户服务代表,并且您收到警报,说您听起来精力充沛,疲惫,而不是精力充沛且充满警报。Picard说,这并不意味着您实际上已经感到疲倦,这是一个重要的区别。

“它不知道我的感觉,”皮卡德说。“它没有意识-只是说,要听这个系统的声音质量,与平时的声音质量相比,并与公司其他人的电话质量相比,在电话上与其他人进行比较,根据数据,这就是您的发音我们已经收集了...这是不是说你是这样“。

令人误解的是,我们已经到了AI有效理解人类感受的地步,而不仅仅是能够分析数据并识别与它们有关的模式。Picard说,“人工智能”一词本身可能会传播这种误解,因此为了避免引起公众对AI未来的担忧,她建议改为使用软件。

她说:“一旦我们将软件称为'AI',很多人就认为它的作用远不止于此。”“当我们说机器“学习”并且“学习了一些东西”时,我们的意思是说我们训练了大量的数学知识来获取一堆输入并创建一个数学函数,这些函数可以产生一组输出。它不会像我们任何人一样“学习”,“了解”,“感觉”或“思考”任何事情。它还活着。”

含义和规定

一些专家认为,将有一天,技术将能够理解和复制“独特的人类”特征。这个想法属于“思维的计算理论” —大脑是处理信息的专用工具,甚至诸如同情心和同情心之类的复杂情绪也可以绘制为数据。但是即使那是真的,体验情感与理解情感之间还是有区别的。在古德曼看来,有一天将有可能建立一个能够很好地理解人们的情感而又不实际体验情感的AI系统。

还有一种想法是,在整个历史过程中,恐惧常常伴随着新技术的发布。Mendlewicz说:“我们总是担心会有新事物出现,特别是如果它包含大量技术组件。”“当第一个电报到来的时候,人们也同样感到恐惧……当电报被电话取代时,人们也表达了对……它使我们变得不那么人类的恐惧-必须与机器通信。”

要问的最重要的问题之一:我们如何避免这种方法被用来疏远人或在人与人之间增加距离?

一个典型的例子是社交媒体平台,它被引入来增强人与人之间的联系,但自相矛盾地最终成为两极分化的工具。“我们从中学到的是,不应该假设人类之间的联系和技术的人性化;埃森哲负责任的AI计划负责人Rumman Chowdhury说。“与其弄清楚我们如何适应技术,不如了解技术如何适合我们。”

这也意味着要提防危险信号,包括技术“解决主义”谬论-技术可以解决人类所有问题的想法。尽管无法做到这一点,但技术可以指出我们需要集中精力处理的事情,以便寻求更全面的解决方案。

乔杜里说:“作为人类,我们必须愿意努力工作。”“不仅仅因为AI告诉您要更富有同情心而发生了……(让我们说)我创建了一个AI来阅读您的电子邮件,并告诉您您听起来是否足够友善,如果不是,请为您修复电子邮件。让你听起来很友善那不会使你变得更好。它并没有使您更富有同理心。任何一种涉及改善人类的AI的创建都需要进行深思熟虑的设计,以使人类能够完成工作。”

其中的一些工作涉及在这种AI广泛传播之前就建立规范该AI的系统,并且专家们已经开始提出想法。

对于任何AI工具,IBM Research的传播经理Chris Sciacca都希望看到一个“ AI Fact Sheet”,其功能类似于一条面包上的营养标签,包括诸如谁训练算法,何时以及他们使用哪些数据等数据。用过的。这是一种在AI工具的“内部”(甚至是黑匣子内部)中查看,理解为什么可能得出特定结论的方法,并记住要花点儿力气。他说,IBM正在致力于标准化和推广这种做法。

Picard suggests regulations akin to those for lie detection tests, such as the Federal Employee Polygraph Protection Act, passed in 1988. Under a similar law, it stands to reason that employers would be unable to require AI communication monitoring tools, with few exceptions — and that even in those cases, they couldn’t monitoring someone without informing them about the technology and their rights.

一家致力于为广告主衡量情绪和注意力的神经分析公司Spark Neuro的首席执行官Spencer Gerrol表示,这种善解人意的AI的潜在影响使他彻夜难眠。他说,Facebook可能创造了“惊人”的技术,但它也有助于干预美国大选。当涉及到可以根据您的大脑活动来读取情绪的设备时,后果可能更加可怕,尤其是因为许多情绪是潜意识的。这意味着有一天,一种设备可能比您自己更能“感知”您的情绪。盖罗尔说:“这种道德将变得复杂,”格罗尔说,尤其是一旦广告商试图说服人们利用他们对情绪的了解采取行动时。

至于Cogito的创始人本人?Feast认为,在未来五到十年内,AI工具将分为两类:

虚拟代理代表我们完成任务。

智能增强或围绕增强或扩展我们自身的能力而构建的服务。

Feast设想了更多人与机器之间的融合,这是我们认为必要的工具,可以帮助我们在特定的环境中实现想要的方式。他说,这些类型的工具将“扩展并增强我们的人性。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。