聊天机器人可以做治疗师吗?除非你希望他们是但需降低期望值
发布时间:2023-10-09 12:43:23|来源:本网翻译|作者:

  聊天机器人可以做治疗师吗?除非你希望他们是但需降低期望值


图片来源:Pixabay/CC0 公共领域

  人工智能公司 OpenAI 的一位经理最近写道,她刚刚与公司的病毒式聊天机器人 ChatGPT 进行了“一次非常情绪化的私人对话”,这引起了人们的震惊。

  “以前从未尝试过治疗,但可能就是这样了?”Lilian Weng 在 X(原 Twitter)上发帖,引发大量负面评论,指责她淡化精神疾病。

  然而,翁对她与 ChatGPT 的互动的看法可能可以用本周《自然机器智能》杂志上的研究概述的安慰剂效应版本来解释。

  来自麻省理工学院 (MIT) 和亚利桑那州立大学的一个团队要求 300 多名参与者与心理健康人工智能项目进行互动,并让他们了解会发生什么。

  一些人被告知聊天机器人具有同理心,另一些人被告知它具有操纵性,第三组则被告知它是中立的。

  那些被告知正在与充满爱心的聊天机器人交谈的人比其他群体更有可能认为他们的聊天机器人治疗师值得信赖。

  报告合著者帕特·帕塔拉努塔蓬 (Pat Pataranutaporn) 表示:“从这项研究中,我们看到,在某种程度上,人工智能是旁观者的人工智能。”

  多年来,热闹的初创公司一直在推动提供治疗、陪伴和其他心理健康支持的人工智能应用程序——这是一笔大生意。

  但该领域仍然是争议的焦点。

  “奇怪,空虚”

  与人工智能威胁颠覆的所有其他行业一样,批评者担心机器人最终将取代人类工人,而不是补充他们。

  在心理健康方面,人们担心机器人不太可能做得很好。

  “治疗是为了心理健康,而且是一项艰苦的工作,”活动家兼程序员 Cher Scarlett 在回复 Weng 在 X 上的最初帖子时写道。

  “对自己产生共鸣固然很好,但还是不一样。”

  心理健康领域的一些应用程序近期的历史也参差不齐,这加剧了人们对人工智能的普遍恐惧。

  Replika 是一款颇受欢迎的人工智能伴侣,有时被宣传为能带来心理健康益处,但其用户长期以来一直抱怨该机器人可能沉迷于性并有虐待行为。

  另外,一家名为 Koko 的美国非营利组织在 2 月份对 4,000 名客户进行了一项实验,使用 GPT-3 提供咨询服务,结果发现自动回复根本无法起到治疗作用。

  “模拟的同理心感觉很奇怪、空虚,”该公司的联合创始人罗布·莫里斯 (Rob Morris) 在 X 上写道。

  他的发现与麻省理工学院/亚利桑那州的研究人员相似,他们表示一些参与者将聊天机器人的体验比作“与砖墙交谈”。

  但莫里斯后来在他的实验受到广泛批评后被迫为自己辩护,主要是因为尚不清楚他的客户是否知道他们的参与。

  “降低期望”

  巴塞尔大学的戴维·肖(David Shaw)没有参与麻省理工学院/亚利桑那州的研究,他告诉法新社,这一发现并不令人惊讶。

  但他指出:“似乎没有一个参与者实际上被告知聊天机器人都是废话。”

  他说,这可能是最准确的入门读物。

  然而,聊天机器人作为治疗师的想法与 20 世纪 60 年代的技术根源交织在一起。

  ELIZA 是第一个聊天机器人,旨在模拟一种心理治疗。

  麻省理工学院/亚利桑那州的研究人员对一半参与者使用 ELIZA,对另一半参与者使用 GPT-3。

  尽管 GPT-3 的效果要强得多,但积极乐观的用户仍然普遍认为 ELIZA 值得信赖。

  因此,翁对她与 ChatGPT 的互动感到兴奋也就不足为奇了——她为该产品的制造公司工作。

  麻省理工学院/亚利桑那州的研究人员表示,社会需要掌握有关人工智能的叙述。

  该论文认为:“人工智能呈现给社会的方式很重要,因为它改变了人工智能的体验方式。”

  “可能需要让用户有更低或更多的负面期望。”

编辑:澜澜
免责声明:文章转载自网络。文章内容不代表本站观点,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,风险自己甄别并承担后果;如有侵权请及时联系本站,我们会及时删除处理!

图文推荐

相关阅读

资讯

产业

新闻排行