打印

[资讯] 当人工智能知道你的感受时,会发生什么?【1P】

1

当人工智能知道你的感受时,会发生什么?【1P】


2021年5月,因滥用和头脑发热而臭名昭著的Twitter推出了一项 "提示 "功能,建议用户在发送推文之前三思而行。接下来的一个月,Facebook宣布为群组提供人工智能 "冲突警报",这样管理员就可以在可能存在 "有争议或不健康的对话 "时采取行动。电子邮件和消息的智能回复每天为我们完成数十亿句话。亚马逊在2020年推出的Halo是一款健身手环,可以监测你的语音语调。健康不再仅仅是跟踪心跳或计算步数,而是我们与周围人相处的方式。正在开发算法治疗工具,以预测和预防负面行为。

斯坦福大学传播学教授杰夫-汉考克(Jeff Hancock)将人工智能介导的传播定义为:"一个智能代理通过修改、增强或生成信息来代表传播者运作,以完成传播目标。" 他说,这项技术已经在大规模部署。

在这一切的背后,是一个蓬勃发展的信念,即我们的关系离完美只有一步之遥。自大流行病开始以来,我们更多的关系依赖于计算机中介渠道。在网上争吵、有毒的Slack信息和无限的Zoom的汹涌海洋中,算法能否帮助我们对彼此更友善?一个应用程序能比我们更好地解读我们的感受吗?或者说,将我们的沟通外包给人工智能,是否会削弱人类关系中的人性化因素?

编码的共同父母

你可以说,杰-基松是在家庭法院系统中长大的。或者,至少是在它周围。他的母亲凯瑟琳-基松是一名家庭法律师,当他还是个少年时,他就在她位于明尼苏达州明尼阿波利斯的办公室里闲逛,帮助整理文件。那是一个没有 "花哨的复印机 "的时代,当基松在律师事务所的走廊里翻阅无尽的纸堆时,他听到了关于家庭破裂的多种方式的故事。

从这个意义上说,基松没有什么变化,他是OurFamilyWizard的共同创始人,这是一个为离异和共同抚养子女的夫妇提供的日程安排和沟通工具,于2001年推出。这是凯瑟琳的概念,而贾伊制定了商业计划,最初将OurFamilyWizard作为一个网站推出。它很快引起了法律系统工作人员的注意,包括詹姆斯-斯文森法官,他于2003年在明尼阿波利斯市亨内平县家庭法院开展了一个平台的试点项目。该项目采用了基松所说的 "最顽固的家庭 "中的40个,将他们安置在该平台上--"他们从法院系统中消失了。" 当有人最终被送上法庭--两年后--是在父母停止使用该平台之后。

二十年过去了,OurFamilyWizard已被约一百万人使用,并在美国各地获得法院批准。2015年,它在英国推出,一年后在澳大利亚推出。它现在已经进入75个国家;类似产品包括coParenter、Cozi、Amicable和TalkingParents。美国律师协会家庭法分会秘书布莱恩-卡普夫(Brian Karpf)说,现在许多律师推荐共同抚养孩子的应用程序作为标准做法,特别是当他们想对一对夫妇的沟通方式产生 "寒蝉效应 "时。这些应用程序可以对骚扰行为起到威慑作用,在沟通中使用这些应用程序可以得到法院的命令。

为了鼓励文明,人工智能已经成为一个越来越突出的功能。OurFamilyWizard有一个 "ToneMeter "功能,它使用情感分析来监测应用程序上发送的信息--"这是一个让步信号",基松说。情感分析是自然语言处理的一个子集,是对人类语言的分析。这些算法在庞大的语言数据库中进行训练,并根据其中包含的单词和短语对文本的情感和情绪进行评分。在ToneMeter的案例中,如果在一条信息中检测到带有情感色彩的短语,一组信号强度条就会变红,问题词就会被标记出来。例如,"我们迟到了,这是你的错",可能被标记为 "咄咄逼人"。其他短语可能被标记为 "羞辱性 "或 "令人不安"。这取决于用户是否还想点击发送。

ToneMeter最初用于信息服务,但现在正被编码用于应用程序中父母之间的所有交流点。首席产品官Shane Helget说,很快它不仅会阻止消极的交流,而且还会鼓励积极的语言。他正在从大量的互动中收集洞察力,以期该应用程序可以用来主动促使父母在常规对话之外对对方采取积极的行为。可以提醒他们提前沟通日程安排,或者提出交换生日或假期的日期--这些姿态可能不是必须的,但可能会受到欢迎。

2019年推出的CoParenter也使用了情感分析。父母通过文本进行谈判,如果信息过于敌意,就会弹出警告--就像人类调解员可能会对他们的客户嘘寒问暖一样。如果系统不能达成协议,可以选择让人加入聊天。

将这种充满感情的谈判交给一个应用程序,并非没有问题。基松有意识地不允许ToneMeter根据父母的积极或消极程度进行评分,而卡普夫说他已经看到了对用户行为的明确影响。"他说:"沟通变得更加机械化。"你现在是在为观众写作,对吗?"

共同抚养孩子的应用程序可能能够帮助引导一个有问题的关系,但它们不能解决它。有时,它们会使情况变得更糟。卡普夫说,一些父母将应用程序作为武器,发送 "诱饵 "信息,让他们的配偶上当,诱使他们发送问题信息。"一个混蛋父母永远是一个混蛋父母"。基森回忆起他启动试点项目时与一位法官的对话。"关于工具,需要记住的是,我可以给你一把螺丝刀,你可以用它修理一堆东西,"这位法官说。"或者你可以去戳自己的眼睛。"

电脑说:拥抱

2017年,ADELA Timmons是一名心理学博士生,在加州大学旧金山分校和旧金山总医院进行临床实习,她在那里与那些有来自低收入背景的幼童的家庭合作,这些家庭都曾遭受过创伤。在那里,她注意到一个模式的出现。患者会在治疗中取得进展,但在疗程之间却在混乱的日常生活中消失了。她相信技术可以 "在治疗师的房间和现实世界之间架起桥梁",并看到了可穿戴技术的潜力,它可以在问题出现的那一刻进行干预。

在这个领域,这就是 "及时适应性干预"。从理论上讲,这就像有一个治疗师准备好在你的耳边低语,当情感的警钟响起。"但要有效地做到这一点,"现任佛罗里达国际大学生态系统技术干预(TIES)实验室主任的蒂蒙斯说,"你必须感知感兴趣的行为,或远程检测它们。"

蒂蒙斯的研究涉及建立人类行为的计算模型,重点是创建能够有效预测夫妻和家庭行为的算法。最初,她专注于夫妇。在一项研究中,研究人员为34对年轻夫妇安装了手腕和胸部监测器,并跟踪体温、心跳和汗液。他们还给他们配备了智能手机,以监听他们的对话。通过将这些数据与每小时的调查进行交叉比对,在调查中夫妻双方描述了他们的情绪状态和任何争吵,蒂蒙斯和她的团队开发了模型,以确定一对夫妻何时有较高的争吵机会。触发因素将是高心率、频繁使用 "你 "这样的词,以及背景因素,如一天中的时间或房间里的光量。"没有一个单一的变量可以作为不可避免的行的有力指标,"蒂蒙斯解释说(尽管在洛杉矶的交通中驾驶是一个主要因素),"但是当你有很多不同的信息被用于一个模型中,结合起来,你可以更接近于拥有一个在现实世界中真正起作用的算法的准确水平。"

蒂蒙斯正在扩展这些模型,以研究家庭动态,重点是改善父母和子女之间的联系。TIES正在开发移动应用程序,旨在使用智能手机、Fitbits和苹果手表被动地感知积极的互动(其想法是,它应该可以与现有的消费技术相结合)。首先,收集数据--主要是心率、语音语调和语言。硬件还能感知身体活动以及父母和孩子是否在一起或分开。

在夫妇的研究中,该算法在检测冲突方面的准确率为86%,并能够与自我报告的情绪状态产生关联。在家庭背景下,希望通过检测这些状态,该应用程序将能够进行积极干预。"它可能是一个提示,比如'去给你的孩子一个拥抱'或'告诉你的孩子他或她今天做得很好',"蒂蒙斯说。"我们还在研究能够检测到消极状态的算法,然后发送干预措施,帮助父母调节他们的情绪。我们知道,当父母的情绪得到调节时,事情往往会好转。"

语境信息有助于提高预测率。这个人前一天晚上睡得好吗?他们那天是否锻炼了身体?提示的形式可以是建议冥想,尝试呼吸练习,或参与一些认知行为治疗技术。正念应用程序已经存在,但这些依赖于用户在他们可能生气、不安或情绪失控的时刻记得使用它。"实际上就是在那些你最不能够拉动你的认知资源的时刻,"蒂蒙斯说。"希望我们可以通过提醒他们需要使用这些技能的时刻来满足当事人的要求。" 根据她与家庭合作的经验,传统的治疗结构--每周一次50分钟的治疗--不一定是产生影响的最有效方式。"我认为该领域开始对我们是否能扩大心理干预的科学性产生更明确的兴趣。"

这项工作得到了美国国立卫生研究院和国家科学基金会的资助,作为创建商业上可行的技术系统的基金的一部分,蒂蒙斯希望这项研究将导致可获得的、可扩展的和可持续的心理健康护理。一旦她的实验室有数据证明它对家庭是有效和安全的,并且不会造成意想不到的伤害,那么就需要对如何部署这种技术做出决定。

随着数据驱动的医疗保健的扩大,隐私是一个问题。苹果公司是最新一家进入这一领域的大型科技公司;它与加州大学洛杉矶分校的研究人员在2020年启动了一项为期三年的研究,以确定iPhone和苹果手表是否可以检测并最终预测和干预抑郁症和情绪障碍的情况。数据将从iPhone的摄像头和音频传感器,以及用户的动作,甚至他们在设备上的打字方式中收集。苹果公司打算通过在手机上设置算法来保护用户数据,不向其服务器发送任何数据。

在TIES实验室,蒂蒙斯说,除了与伤害或虐待有关的情况,没有任何数据被出售或共享。她认为重要的是,开发这些技术的科学家要考虑到可能的误用。"科学界与立法者和公众的共同责任是在这个空间内建立可接受的限度和界限"。

下一步是实时测试这些模型,看看它们是否有效,以及来自手机的提示是否真的会导致有意义的行为改变。"我们有很多很好的理由和理论,认为这将是一个真正强大的干预机制,"蒂蒙斯说。"我们只是还不知道它们在现实世界中的效果如何。"

关系的X光片

传感器和算法可以理解人类互动的复杂性的想法并不新鲜。对于关系心理学家约翰-戈特曼来说,爱情一直是一个数字游戏。自1970年代以来,他一直试图量化和分析关系的炼金术。

戈特曼对情侣进行了研究,最有名的是他在华盛顿大学的 "爱的实验室",这是他在20世纪80年代建立的一个研究中心。爱的实验室的一个版本今天仍在西雅图的戈特曼研究所运作,该研究所是在1996年与他的妻子朱莉-戈特曼(Julie Gottman)--一位心理学家同事--共同创建的。从爱情喜剧的角度来看,爱情实验室就像《当哈利-遇见莎莉》的开场镜头与《拜见父母》中罗伯特-德尼罗让他的未来女婿接受测谎的场景拼接在一起。人们被两个两个地连接起来,被要求在他们之间交谈--首先是关于他们的关系史,然后是关于冲突--同时各种机器追踪他们的脉搏、汗水、语调以及他们在椅子上的坐立不安程度。在一个装满显示器的密室里,每一个面部表情都由训练有素的操作员进行编码。爱的实验室旨在收集有关夫妇如何互动和传达他们的感情的数据。

这项研究导致了 "戈特曼方法",一种关系咨询方法。保持5:1的积极与消极互动比例很重要;33%的人没有回应伴侣的关注请求就等于一场 "灾难";翻白眼与婚姻厄运紧密相关。"约翰-戈特曼在他位于华盛顿州奥卡斯岛的家中说:"关系并不那么复杂。

戈特曼夫妇也正在步入人工智能领域。2018年,他们成立了一家初创公司Affective Software,为关系评估和指导创建一个在线平台。它始于一次IRL互动;多年前,朱莉-戈特曼在校门口接女儿时遇到了微软的老员工拉斐尔-利西萨,这段友谊由此而生。Lisitsa是Affective软件公司的联合创始人和首席执行官,他正在开发一个虚拟版本的爱情实验室,在这个实验室中,夫妻双方可以通过他们的电脑、iPhone或平板电脑上的摄像头对他们的关系进行同样的 "X光 "诊断。同样,面部表情和语音语调以及心率都会受到监测。这是情感检测或 "情感计算 "发展到何种程度的一个指标;尽管最初的 "爱的实验室 "有屏幕和设备的支持,但最终还是需要一个受过专门训练的人观看显示器并正确编码每个提示。戈特曼从不相信人的因素可以被去除。"他说:"能够真正敏感地编码情感的人非常少。他说:"他们必须是音乐人。他们必须有一些戏剧方面的经验......我从未梦想过机器能够做到这一点。"

并非所有人都相信机器可以做到这一点。情感检测的人工智能是一个波澜不惊的领域。它在很大程度上建立在人类有普遍的情绪表达的想法上--这一理论在20世纪60年代和70年代随着保罗-埃克曼的观察而发展起来,他创建了一个面部表情编码系统,为戈特曼夫妇的工作提供了参考,并构成了许多情感计算软件的基础。一些研究人员,如东北大学心理学家丽莎-费尔德曼-巴雷特,质疑是否有可能从面部表情中可靠地检测出情绪。尽管已经被广泛使用,但一些面部识别软件已经显示出种族偏见的证据;一项比较两个主流程序的研究发现,它们对黑人面孔分配的负面情绪比白人面孔多。戈特曼说,虚拟爱情实验室是在包括所有皮肤类型的面部数据集上进行训练的,他的互动编码系统已经在美国不同群体中进行了测试,包括非裔美国人和亚裔美国人群体。"他说:"我们知道文化确实调节了人们表达或掩饰情感的方式。"我们已经在澳大利亚、英国、韩国和土耳其进行了调查。而且看起来我所演化的特定情感系统确实有效。现在,它在所有文化中都有效吗?我们真的不知道"。

戈特曼补充说,爱的实验室实际上是通过社会编码系统来运作的;通过考虑谈话的主题、语气、身体语言和表情,它不太注重检测当下的单一情绪,而是分析互动的整体质量。戈特曼说,把这些放在一起,你可以更可靠地得出一个类别,如愤怒、悲伤、厌恶、蔑视。当一对夫妇参加时,他们被邀请回答一份详细的调查问卷,然后记录两个10分钟的对话。一个是关于过去一周的讨论;另一个是关于一个冲突。在上传视频后,夫妇对他们在对话的不同阶段的情绪状态进行评分,从1(非常消极)到10(非常积极)。然后,该应用程序分析了这一点,以及检测到的线索,并提供结果,包括积极与消极的比例、信任度,以及可怕的 "启示录四骑士 "的普遍性:批评、防御、蔑视和搪塞。它旨在与治疗师一起使用。

治疗和心理健康服务越来越多地通过视频通话提供--自从大流行以来,这种转变已经被超常化。据麦肯锡的分析师称,自Covid-19以来,风险资本对虚拟护理和数字健康的投资增加了两倍,而人工智能治疗聊天机器人,如Woebot,正在成为主流。Lasting等关系咨询应用程序已经基于戈特曼方法,并发送通知,提醒用户,例如,告诉他们的伴侣,他们爱他们。人们可以想象这让我们变得懒惰,但高特曼夫妇认为这是一个教育过程--用最终会成为第二天性的工具武装我们。该团队已经在考虑一个简化版本,可以在没有治疗师的情况下使用。

对于戈特曼夫妇来说,他们的灵感来自于如此多的夫妻都停留在他们的智能手机上,技术开辟了一条使咨询民主化的途径。"戈特曼说:"人们对技术作为一种语言变得更加舒适。"并且作为一种工具,以各种方式改善他们的生活。"

为您发送电子邮件,但不是由您发送
这种技术已经无处不在。它可能会在你不知不觉中影响你的关系。以Gmail的智能回复为例--那些关于你如何回复电子邮件的建议--以及智能撰写,它提供了完成你的句子。智能回复是在2015年作为一项移动功能加入的,智能撰写是在2018年推出的;两者都是由神经网络驱动的。

康奈尔大学的博士研究员杰斯-霍恩斯坦(Jess Hohenstein)在2016年谷歌Allo(现已停用的消息应用)推出时第一次遇到了智能回复。它有一个虚拟助手,可以生成回复建议。她觉得这很令人毛骨悚然。"我不想让一些算法影响我的说话模式,但我认为这一定是有影响的。"

2019年,她进行的研究发现,人工智能确实正在改变我们的互动和相互关系的方式。在一项使用谷歌Allo的研究中,113名大学生被要求与伙伴完成一项任务,其中一方、双方或双方都不能使用智能回复。之后,参与者被问及他们在多大程度上将任务的成功或失败归因于对话中的其他人(或AI)。第二项研究的重点是语言效果;人们如何回应积极或消极的 "智能 "回复。

霍恩斯坦发现,人们在使用智能回复时使用的语言偏向于正面。人们更有可能接受积极的建议,而不是消极的建议--参与者也经常发现自己处于这样一种情况:他们想提出异议,但只得到同意的表达。其效果是使对话更快、更顺利地进行--霍恩斯坦注意到,这使对话中的人对彼此的感觉更好。

霍恩斯坦认为,这在职业关系中可能会产生反作用。这项技术(结合我们自己的暗示性)可能会使我们不愿意挑战别人,或者根本不同意。在使我们的沟通更有效率的同时,人工智能也可能将我们的真实感受抽离出来,将交流减少到互相回击 "喜欢!"和 "听起来不错!"。对于那些在传统上认为更难开口的工作场所的人来说,这可能会增加他们这样做的积极性。

在完成任务的研究中,霍恩斯坦发现,人类为积极的结果邀功。当出错时,人工智能被指责。这样做,算法保护了人类关系,为我们自己的失败提供了缓冲。这提出了一个更深层次的透明度问题:是否应该透露人工智能已经帮助制作了一个回应?当伴侣在使用智能回复时,它最初让接收者对对方有更多的好感。但当被告知有人工智能参与时,他们感到很不舒服。

这强调了贯穿此类技术使用的一个悖论--感知和现实并不一致。"人们对它感到毛骨悚然,但它正在改善与你交流的人的人际感知,"霍恩斯坦说。"这是反直觉的。"

在他的论文中,汉考克强调了这些工具如何 "可能产生广泛的社会影响",并概述了一个研究议程,以解决在我们眼皮底下发生的一场技术革命。以人工智能为媒介的通信可能会改变我们的说话方式,减轻偏见,或加剧偏见。它可能会让我们怀疑我们到底在和谁说话。它甚至可能改变我们的自我认知。"他写道:"如果人工智能将发件人的信息修改得更积极、更有趣或更外向,那么发件人的自我认知会不会转向更积极、更有趣或更外向?如果人工智能接管了我们太多的关系,那么我们真正剩下的是什么?
本帖最近评分记录
  • 愚人随风 金币 +4 感谢分享,论坛有您更精彩! 2022-2-6 22:09

TOP

当前时区 GMT+8, 现在时间是 2025-3-11 07:23