您好,欢迎访问G库电竞app在线教育有限公司!

050-88977264

全国咨询热线

您现在所在位置:主页 > 通知资讯 >

让机器学会“读心术”,情感计算如何解决实际场景需求?|硬创公开课

更新时间:2021-04-21

本文摘要:做表情,说一句话,机器就能正确识别你的感情。毕竟,当你渴望获得读心术技能时,机器已经可以构建得很好。 目前,国内翼进科技、以色列公司BeyondVerbal、美国Affectiva和Emotient都在计算这种感情解决方案。其应用场景也非常普遍:飞行员情绪监测、呼叫中心情绪评估、学生情绪监测甚至智能硬件都可用于这种算法,精度可超过90%。

G库电竞官方网店

做表情,说一句话,机器就能正确识别你的感情。毕竟,当你渴望获得读心术技能时,机器已经可以构建得很好。

目前,国内翼进科技、以色列公司BeyondVerbal、美国Affectiva和Emotient都在计算这种感情解决方案。其应用场景也非常普遍:飞行员情绪监测、呼叫中心情绪评估、学生情绪监测甚至智能硬件都可用于这种算法,精度可超过90%。非常简单地说,机器根据人的心率、排便、、脸部表情等特征,可以通过特定的模型算法理解人的感情状态,从技术上看,数据挖掘、机器学习等是感情计算的基础。

完成感情识别所需的模块是什么?明确构筑原理是什么样的呢?本期软创公开课邀请翼进科技创始人魏晨分享感情计算的技术问题和应用于场景。嘉宾说明魏晨,翼进入科技EmoKit创始人,目前全面负责EmoKit公司的战略计划、运营管理、团队建设,团队中两名核心科学家成为海归博士后。EmoKit,即海妖情感计算引擎,包括情感识别、优化、传达,是人工智能的核心基础设施之一。

自2015年成立以来,半年内获得了600万投资,现在已经超过了2000万用户,今年获得了约2000万元的订单。Emokit先后获得美国麻省理工学院举办的MIT-CHIEF世界创业大会中国区第一,芬兰SlushWorld2014世界创业大会排名第一,工信部和全国科学协会2015全国移动互联网创业大会特等奖,清华大学HLab获得了快乐科学技术世界挑战冠军。

以下内容从本期公开课整理,实现了不改变不愿意的编辑:感情计算的模块和价值,从我们现在实现的事情来看,我们将感情计算分为三个模块:第一部分是感情识别,通过语音、心率、表情和写作过程中压迫感和速度的变化来识别用户的感情。感情识别感情的类型共24种,大力和消极各12种。在感情计算的发展过程中,算法也经历了6次升级。

第一代我们通过测量项目管理,第二代再次加入心率和排便,第三代对个人减少了横向的自学和训练,第四代我们细分了感情(从原来的5中感情减少到了24种),第五代再次加入了表情和笔记的感情识别,第六代主要是识别用户的感情后,根据单一的事件背景进一步识别用户的意图情绪优化模块的情绪识别只是第一步,未来必须解决问题的问题是调整用户的情绪。从上图可以看出,通过语音、心率表情和笔记本识别用户的感情后,也可以通过推荐内容来减轻用户的感情。

例如,翼进科技2011年在线的应用程序不向用户推荐诗歌、书法、音乐等,在音乐内容上更加理解,通过分析音乐的音高、节奏、旋律和音强,3分钟的歌曲不收集6000个数据点,根据这些信息给歌曲打上感情标签。现在音乐的数量已经达到了160万首。

另外,照片和录像可以通过用户的感情给予内容,最后超过了减轻感情的目的。感情传达利用感情制作技术,使声音、表情、身体动作模拟人的感情,使机器表达感情,提高人与机器的交互体验。举个例子,如果送餐机器人只知道菜和客人,这是基础服务,但是为了减少机器人的选择价值,送餐机器人必须背诵客人的感情,当客人沮丧时,送餐机器人不会以相对缓慢的感情对话。

G库电竞官方网店

情感计算技术构建的路线目前正在进入科学技术和中科学院心理所、清华大学心理系和美国卡内基梅隆大学语言技术研究所。这实质上是两个流派:前两个机构代表理论研究的专家模型,卡内基梅隆大学是基于神经网络、深度自学的模型。目前,翼进科学技术的一部分基于深度自学,一部分基于专家模型。

我们指出,这两种瓶颈逐渐出现,必须相互融合。为什么不用深刻的自学别表情?目前实现深度自学的瓶颈是大量显示的数据,但表情显示并不容易。

一张脸只能辨别喜怒哀乐,一般一秒钟就能辨别出一个人的表情。如果有几十万张表情照片的话,用大众包的方式需要的时间和费用会相当大。然而,有些数据不容易显示,如语音。

三分钟的声音,我们必须听三分钟才能显示感情,显示的工作量在看不见的情况下减少了几百倍,而且比较表情,声音的感情传达更加隐藏,所以很难用深刻的自学方法构筑语音的感情识别。另一个是普通人很难显示心率。

即使你是专业的医生,读完心率图也无法确认测试对象心率变化的原因。所以现在的表情是基于深度自学的,语音和心率是基于专业的模式。但是,刚才这两种在发展到一定程度时,也没有瓶颈。

事例表情面临的瓶颈有2个:1.普通人表情的粒度一般为6~8种感情,很难识别更粗的(24种甚至100种以上)2.即使完成了感情类型的基准,也无法证明感情的真实性。在专家模型中,由于有比较成熟期的模型来区分感情的真实性,我们可以根据深刻的自学,改变专家模型来突破这样的瓶颈。心率和声音在专家模型的基础上也没有瓶颈,现在的解决办法是制作个人用户强化训练的模型(用户越多,模型就越不符合被测定用户的特征),还可以制作半监督自学算法来获得动态的对策系统。

因此,表面上有两条技术路线,但实质上这两者相互融合。根据情感计算的不同,不同行业的情感计算的解释也不同。

罗莎琳·皮卡德是麻省理工学院MediaLab的老师,她也是感情计算学科的创始人。在她的《感情计算》这本书的序言中,如果让计算机构建立确实的智能,适应环境,给我们自然的嵌入式,那么就没有感情认识和表现力,没有感情。谷歌云计算首席科学家李飞飞计算感情是这样解读的:现在我们的AI是用逻辑方法辨别感情的。逻辑代表智商,情感代表EQ。

G库电竞app

未来,从感情到感情,是人工智能未来前进的方向。我们指出,我们可以从三个角度解释情感计算:第一,情感计算可以帮助人工智能识别用户的情感;第二,情感计算可以帮助人工智能模拟人类的情感,提高人机情感互动;第三,情感计算可以让人工智能产生自我约束力(同理心)。应用于场景现在的翼进科学技术和环信合作,环信有IM交流工具,其中包括语音、表情和文本等信息,我们对外开放初始化的SDK,通过语音等信息可以识别用户的感情。

另外,我们现在也与科技大学的通信飞行合作,合作方式主要是交叉许可,通过初始版的SDK,科技大学的通信飞行识别声音,翼进入技术识别感情,现在也实现视觉应用,科技大学的通信飞行识别人的身份,翼进入技术识别感情。此外,以下是情感计算可能着陆的场景:1.基于AI多模式识别和生物反馈技术的精神压力智能筛选装备2.基于AI多模式识别和NLP技术的公安审问动态分析警报装备3.基于AI多模式识别和车载控制技术的司机情绪和疲劳度监测勇于系统4.基于AI多模式识别和智能控制技术的情绪同步的无操作智能家庭系统5.基于AI多模式识别和动机分析技术的金融信用面签风险评估机器人6.基于语音纹理和NP技术的情感识别和智能控制技术的情绪同步调查精彩的解说q:声音、图像等不同的模块如何在系统中协商工作?a:只是多模式的算法,有两种构筑方法:本身的数据是多模式的数据,然后显示,完成游戏显示后,可以通过深度自学的方式进行训练,第二种是通过同一个sensor收集数据后,可以进行多模式,例如通过麦克风收集用户的声音、声音特征问:情感数据对准确性有很大影响,这些数据是如何收集的?a:在我们和卡内基梅隆大学的感情计算专家交流的过程中,我们通过单一的信息来区分感情,精度是有限的,越早实现多模式越好,越少模式的数值越好。

我们将反应感情的信号分为两种,一种是语音、表情等浅信号,另一种是深信号,几乎不受交感神经和副交感神经的影响,主观意识难以控制。浅信号容易收集,但权重不低的深信号权重低,但收集可玩性高。两种信号的综合多模式分析可以提高情感识别的准确性。

问:现在的精度有多低?多模型的模型有关系的paper吗?a:声音和心率是基于专家模型的,这种精度不低,在85%左右,表情在90%左右(但表情只有7中的感情)。问:情感识别现在有识别精度的行业标准吗?如果没有标准,从哪个维度提高识别率?a:现在识别感情标准的类型很多,少见的是用深度自学方法构筑的模型,通过新的显示数据完成该模型,识别其精度,并且可以根据用户识别系统,将系统测试的结果交给用户,使用户最后的检查如何优化?可以半监督自学,开展自我训练自我校正。问:有使用脑电波的模型数据吗?a:在国外实现这一点的研究很多,我们指出现在计算机sensor还不是消费终端的标准,收集计算机需要专业的sensor,现在用于类似的行业,没有达到标准化算法的对外开放。公开课视频PS:翼进科学技术采用:机械学习、机械视觉、感情计算、多模式、NLP等职务,有意向发表way@emokit.com原创文章,允许禁止发表。

下一篇文章发表了注意事项。


本文关键词:让,机器,学会,“,读心术,”,G库电竞app,情感,计算,如何

本文来源:G库电竞app-www.realtorleadpro.com

在线客服

ONLINE SERVICE

联系电话

050-88977264

返回顶部