趣找句子

您现在的位置是:首页 > 教育资讯

教育资讯

学习通心理健康教育章节答案()

admin 2022-05-17教育资讯
在心理健康领域,人工智能到底可以走到多远?在此前的一些相关报道中(报道1、报道2),36氪通过部分内容初步探讨了在供给侧严重不足的心理健康行业,人工智能存在的潜在机会及挑战。近年来,人工智能因为算法不可解释性、鲁棒性及安全性等问题,以及弱AI时代人工智能性能低下、过于依赖数据驱动等问题,引起了大众对人工智能的怀疑。人工智能自诞生之日起
首先,从筛查和评估开始入手。然后,是干预康复,也就是提供所谓的数字药,包括但不限于CBT、DBT等等所有已被印证可以治愈情绪障碍的循证疗法。最后是康复期及稳定期过程中,对用户状态的长期跟随健康管理。

我们的干预方案也会受到用户自身状态变化而动态调整。我们的算法模型会更多去感知用户本身的认知通路,比如每个人的说话方式能反映出他背后的思维方式和逻辑链路。用户认知一旦被算法很好地捕捉到后,我们就能够更好地根据用户自身的特点为用户提供治疗,能够更好地提高用户的依从性和治疗的有效性。当然我们也还在临床实验阶段,还在不停地迭代和完善。

我们以认知、情绪和行为三个维度去构建了整个疗法模型,所以疗法包括了CBT、DBT、IPT、正念等多种疗法。虽然CBT目前科研中的有效证据较多,但这是因为CBT更容易被量化、更容易发成型的论文,所以有效性证据更多,还是因为它真的是最有效的?这是仍待经过更多验证的。此外,从临床的角度来看,我们一直认为本土化的CBT研究没有发展得很好。所以,我们更多还是会结合临床经验,看什么样的框架能够对问题做有效拆解,并最终决定采用认知、情绪和行为三个维度,将逻辑做融合,再用AI去实现。

36氪:能否向我们具体举例介绍一下,AI是如何围绕这认知、情绪和行为三个维度去开展回复策略的?

黄民烈团队:比如一个情绪低落的用户使用聆心智能的聊天机器人。首先,机器人去探索用户的问题类型和关键事件。然后用户可能说,我心情不好是因为我跟女朋友分手了。这时机器人会可能会进行相对应的策略,例如共情,也就是情感映射,说,嗯分手通常是一件难过的事情。然后,机器人会进一步探索说,那你现在有什么想说或者想做的吗?

我们借鉴心理咨询理论,把这个交互过程分成探索、安抚、提供建议三个阶段。在每一个阶段,我们都设计了丰富的策略,包括提问、自我暴露、情感映射、提供信息、确认、奇迹问题等等。比如自我暴露策略,是机器人回复用户说,我也曾经有过类似的痛苦经历,然后希望能跟用户能够产生更多情感连接。这些策略都是有心理学理论支撑的。

在心理咨询的过程中,人和机器有一个比较大的区别,就是人能产生非常强烈的共情。人类共情之后,再与来访者探讨问题。虽然机器也能共情,但其浓烈程度肯定没有人那么丰富。

那我们怎么办?我们现在采用的方法,就是在与用户对话过程中,更多去调动用户自身的思考能力——也就是他的认知,并通过一些技术性和策略性的方式,回避机器人不太容易理解的、多样掺杂在一起的复杂情绪。

比如,我跟机器人说我工作好累。如果是一个人回复我,他可能会告诉我,累的时候他自己会做什么?于是,我们在编写算法过程中,会给机器人赋予一个稳定人设,针对不同情景,这个机器人的人设会有自己的反应。拥有人设的机器人会告诉我,它累的时候会做什么,它觉得这个事情为什么起效——这个就是机器人在使用自我暴露策略。

其次,机器人听到用户说很累时,可能会问用户感觉压力大的时候,用户自己通常会做什么,用户自己觉得这个事情有效吗?如果这个事情暂时没有效果,用户要不要试一下其他办法?然后机器人就会引入一些干预和练习。我们通过这些策略安抚用户情绪,同时让用户自主思考什么事情对自己最有效果。

36氪:整个数字疗法的设计开发过程中,主要难点是什么?

黄民烈团队:最难的地方,在于把咨询师的认知和语言,“翻译”成AI逻辑。打个比方,CBT疗法咨询师在评估一位患者是否达到预期治疗效果时,其标准通常是患者的社会功能是否已恢复至正常水平。那对AI来说,什么叫做个体层面的正常?在AI算法开发过程中,我们就需要将这个目标量化。

这跟我们平时做心理咨询会有所不同,原因在于,我们人工咨询会有一个动态评估的过程。我们目前根据数据和案例,持续不断调整评估的量化指标权重以期待达到最精准的动态评估。

类似这种“翻译”,听起来不难,其实在实践中很不容易,需要AI人才和心理咨询人才之间非常多的碰撞,才能重新设计出来。

36氪:聆心智能的循证医疗临床实验和真实世界研究是如何组织的?基于隐私及伦理方面等问题,您觉得数据方面的局限和困难有哪些?样本偏差是如何的,如何控制和平滑样本偏差带来的影响?

 2/5   首页 上一页 1 2 3 4 5 下一页 尾页

文章评论

[!--temp.pl--]