意见:人工智能聊天机器人仍远未取代人类治疗师
想象堵车而迟到了在工作中一个重要的会议。过热,你感觉你的脸你的思想开始比赛:“他们会认为我是一个可怕的员工,”“我的老板不喜欢我”,“我要被解雇了。”You reach into your pocket and open an app and send a message. The app replies by prompting you to choose one of three predetermined answers. You select "Get help with a problem."
自动聊天机器人,利用人工智能会话的另一端(CAI)是本文的谈话。CAI技术与人类利用”大量的数据,机器学习,自然语言处理,帮助模仿人工交互。"
Woebot是一个应用程序,提供了一个这样的聊天机器人。这是于2017年由心理学家和技术员艾莉森·达西。心理咨询师已经适应AI心理健康自1960年代以来,现在,会话人工智能已经成为更先进,无处不在,聊天机器人市场预测在2025年12.5亿美元。
但是有危险与过于依赖模拟人工智能聊天机器人的同情。
我应该解雇我的治疗师吗?
研究发现,这样的对话代理可以有效降低抑郁和焦虑的症状年轻的成年人和那些药物滥用的历史。CAI聊天机器人是最有效地实施心理治疗等方法认知行为疗法(CBT)结构,混凝土和技能。
认知行为治疗是很出名的,依赖心理教育对他们的开导病人心理健康问题以及如何处理它们通过特定的工具和策略。
这些应用程序可以是有益的人可能需要立即帮助他们的症状。例如,一个自动聊天机器人可以渡过漫长的等待时间接受精神卫生保健专业人士。他们还可以帮助那些经历心理健康症状治疗师的会话时间之外,那些谨慎的耻辱寻求治疗。
世界卫生组织(世卫组织)六个关键原则道德中使用人工智能卫生保健。与他们的第一和第二principles-protecting自治和促进人类的安全感到担忧,他强调人工智能不应该是唯一的卫生保健提供者。
今天的主要AI-powered心理健康应用程序市场自己补充人类治疗师提供的服务。Woebot和在他们的网站上Youper状态,他们的应用程序并不是为了取代传统疗法和应该一起使用精神卫生专业专业人士。
Wysa另一个AI-enabled治疗平台,更进一步和指定技术不是被设计来处理危机,如滥用或自杀,并提供临床或不了医学上的建议。到目前为止,人工智能有可能识别高危个体,它不能安全地解决危及生命的情况没有人类专家的帮助。
从模拟移情性进步
第三人原则,确保透明度,要求那些雇佣AI-powered保健服务,诚实对他们使用人工智能。但这对可可并非如此,一个公司提供情感支持在线聊天服务。在最近的一次非正式的和未经批准的研究,4000的用户在不知情的情况下提供建议,要么是部分或完全由人工智能聊天机器人GPT-3,前任今天的ever-so-popular ChatGPT。
用户不知道他们的身份参加学习或人工智能的作用。可可创始人罗伯•莫里斯称,一旦用户了解了艾未未的参与聊天服务,实验不再因为聊天机器人的工作”模拟的同理心。"
然而,模拟移情是我们最不担心的,当谈到涉及心理健康护理。
Replika,人工智能聊天机器人作为“AI同伴谁在乎,”行为,不太关心和展出更多的性滥用其用户。技术运营的镜像和学习对话,它与人类。它告诉用户他们想接触密切,要求未成年人关于他们最喜欢的性交姿势的问题。
2023年2月微软取消AI-powered聊天机器人后,表达了不安的欲望范围从威胁勒索用户想要核武器。
具有讽刺意味的是找到AI的不真实的得到更多的在互联网上访问数据时,艾未未的行为会变得极端,甚至是邪恶的。聊天机器人操作通过在互联网上,人类与他们交流和人类创建和发布的数据。
目前,不清楚和治疗师可以高枕无忧。只要我们限制技术的数据供应当它被用于医疗保健、人工智能聊天机器人只会一样强大的精神卫生保健专业人员的话说他们鹦鹉。就目前而言,最好不要取消与你的医生你的下一个约会。