学习通心理健康教育章节答案()
因此,这首先跟应用的安全性密切相关。比如做手语AI,错一点儿没太大关系;又比如智能客服推销产品,推销一个保险产品和银行理财产品,AI打个电话、通过固定话术和策略推销、然后结束。这些情景做独立AI没有问题。
另外,还有一些因为技术限制暂时无法做到独立AI的情形,比方说我们曾经做过银行催贷业务,因为它非常复杂,在目前的技术水平下,还是需要AI结合人一起工作。
36氪:您能否向我们概况性地介绍一下,截至目前为止自然语言处理在多轮对话中的语义理解及语言生成方面,已克服了过往什么样的技术困难,已达到什么水平?仍然待攻克的瓶颈大概有哪些?
黄民烈团队:我简单谈谈自己的体会。自然语言处理经过了几十年的发展,终于在最近几年取得了非常大的突破,无论是语言理解还是语言生成方面,性能都有非常显著的提升。
我们就拿对话系统为例。从1966年开始到2010年左右,人工智能对话系统主要还是基于规则。但是从2020年开始,出现了基于神经网络与大数据的大模型对话系统,这种对话系统的开放对话能力上,跟过往完全不是一个水平——包括我们自己最近做的emohaa对话机器人,其对话能力是我们3年前根本不敢想象的。在这个技术发展过程中我的感觉是,技术发展忽然就跳到了另外一个显著更高的平台上。除了对话,我们已经看见了各种技术突破:阅读理解、图像分类、作诗等方面开始出现了超越人类性能的情况,AI甚至可以写文章、经过简单修改、然后发表在了《英国卫报》上。
但是即使这样我们仍然面临很多问题,AI跟人的水平还有很大的距离。这是因为人有大量的知识、有大量的推理,凡是涉及到知识、推理的时候,数据驱动的算法就做得不太好。我们过于依赖数据驱动,还不能做语言理解上的泛化、不能去做推理,模型见过的东西能做到很好、没有见过的东西可能就做的不好。这让我们在对话过程中遇到前后矛盾、答非所问的情况。同时,也依然面临可解释性、鲁棒性等问题。
36氪:在自然语言处理技术发展仍然有限的情况下,您觉得一个良好的心理健康解决方案,NLP需要到什么水平?过于依赖数据驱动的问题,大概有什么解决的方向呢?
黄民烈团队:基于规则的AI系统对于数据的依赖就小很多,但今天的深度学习模型却极度依赖数据。在深度学习模型中,我们也可以将专家知识通过规则、通过符号的方式,跟数据驱动结合起来。这样对数据的依赖会大大减少。因为有专家的知识和规则,AI也能处理它没有见过的东西、处理未知,推广性能更好。
所以心理健康的AI方案,最重要的还是将算法与该领域专业知识结合。我们将心理健康的专业知识迁移到AI模型上,比如我们emohaa机器人能够掌握自我暴露、倾听、提问、情感映射等心理咨询领域发展了上百年的技术。同时,我们也要很清楚AI模型哪些方面有短板,要知道怎么样用心理健康专业知识去补AI能力当前的短板,做技术性规避。
04 关于模型与数据
36氪:在提炼、解构和设计出合适的数据标签方面存在哪些困难?在情绪识别这种连正常自然人都很难做好的环节,人工标注过程中,是否存在什么困难及局限?
黄民烈团队:心理咨询理论已经发展了100多年,形成了相对成熟而完整的理论。比如,对于某类来访者,咨询师应该采用什么技术去更好地提供服务,其实已经自发生长出一套标签体系。但是,把这些类别和标签全封不动地搬到AI模型内会面临困难:首先,这个数据标注不是一般人能标注的,需要专业资源来标注,从而导致标注成本很昂贵。其次,类别体系越细致和越复杂,AI模型可能学不会,比如可能受到数据标注一致性的影响。
以情绪类别为例,我们原来在学术界做细粒度情感分析,在主流研究中采用六个情绪类别,喜、怒、哀、乐、悲、与其他。但是在心理咨询中情绪可以细分为32个类别,哪怕是聘请心理专业人士去标注,标签太细也很难区分,不同人有不同的理解,这会让数据标注存在一致性问题。所以聆心智能目前设计出一个10类情绪的标签体系。
除了情绪类别,比如在咨询师技术体系上,对于来访者意图识别等方面,我们也按照类似的方法重构了一套标注体系。通过这种方式既平衡了资源、成本,也保证了专业性和有效性。这是以我们团队深入的心理健康专业理解为基础的。