上海大学鲍晟获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉上海大学申请的专利一种数字人实体化机器人系统及其交互驱动方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117021131B 。
龙图腾网通过国家知识产权局官网在2026-04-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311036570.1,技术领域涉及:B25J11/00;该发明授权一种数字人实体化机器人系统及其交互驱动方法是由鲍晟;田雨洁;袁建军;杜亮;王明远设计研发完成,并于2023-08-17向国家知识产权局提交的专利申请。
本一种数字人实体化机器人系统及其交互驱动方法在说明书摘要公布了:本发明涉及机器人技术领域,本发明提供一种数字人实体化机器人系统及其交互驱动方法,包括感知单元、控制模块、通讯单元、存储单元、电源连通模块和机械单元,所述机械单元包括机械结构,所述机械机构包括机身主体、可伸展的腿部、可伸展的足部、可伸展的机械臂和可转动的人形脸部外壳;所述感知单元、所述控制模块、所述通讯单元、所述执行组件和所述电源连通模块均安装在所述机身主体上,通过将感知单元感知到的外部环境信息和获取到的交互对象发出的指令信息,可以转化成与信息协调一致的语音信号或和面部表情信号或和肢体动作信号,并且能够与交互对象进行接触式交互,能够与人类产生情感上的共鸣,提升了用户体验感。
本发明授权一种数字人实体化机器人系统及其交互驱动方法在权利要求书中公布了:1.一种数字人实体化机器人系统的交互驱动方法,应用于数字实体化机器人系统,包括感知单元102、控制模块110、通讯单元103、存储单元105和电源连通模块111,其特征在于,包括三大部分: 一、机器人发出语音 如果感知单元102感知到交互对象发出语音、面部表情和肢体动作信息时,会将面部表情信息和肢体动作信息转化成面部表情-语音文本和肢体动作-语音文本; 1调用组件调用传感器输入组件的语音文本内容文件C11; 2语音文本内容文件C11传送给文本-语音转换组件C21,从而将语音文本内容文件C11转化成机器人需要播报的语音信号; 3语音信号传送给语音-面部表情肢体动作转换组件C22,从而将语音信号转化成与语音信号协调一致的面部表情信号和肢体动作信号; 4语音信号还传送给语音生成组件C23,从而生成机器人所需要播放的语音; 5语音传送到音频输出组件C50播放机器人语音; 6面部表情信号和肢体动作信号分别传送给面部表情生成组件C33和肢体动作生成组件C43,机器人从而做出与语音协调一致的面部表情和肢体动作; 二、机器人做出面部表情 如果感知单元102感知到交互对象发出语音、面部表情和肢体动作信息时,会将语音信息和肢体动作信息分别转化成语音-面部表情描述文件和肢体动作-面部表情描述文件; 1调用组件调用传感器输入组件的面部表情描述文件C12; 2面部表情描述文件C12传送给面部表情识别组件C31,从而将面部表情描述文件C12转化成机器人需要做出的表情信号; 3表情信号传送给面部表情-语音肢体动作转换组件C32,从而将表情信号转化成与表情信号协调一致的语音信号和肢体动作信号; 4表情信号还传送给面部表情生成组件C33,从而生成机器人需要投影的面部表情; 5面部表情传送到面部表情投影组件C60,面部表情投影组件C60将面部表情投影到人形脸部外壳上; 6语音信号和肢体动作信号分别传送给语音生成组件C23和肢体动作生成组件C43,机器人从而播放与面部表情协调一致的语音和做出与面部表情协调一致的肢体动作; 三、机器人做出肢体动作 如果感知单元102感知到交互对象发出语音、面部表情和肢体动作信息时,会将语音信息和面部表情信息分别转化成语音-肢体动作数据文件和面部表情-肢体动作数据文件; 1调用组件调用传感器输入组件的肢体动作数据文件C13; 2肢体动作数据文件C13传送给肢体动作识别组件C41,从而将肢体动作数据文件C13转化成机器人需要做出的肢体动作信号; 3肢体动作信号传送给肢体动作-语音面部表情转换组件C42,从而将肢体动作信号转化成与肢体动作信号协调一致的语音信号和面部表情信号; 4肢体动作信号还传送给肢体动作生成组件C43,从而生成机器人所需要执行的动作控制序列; 5动作控制序列传送到动作执行组件C70,动作执行组件C70将动作控制序列发送到腿部、足部和机械臂上执行动作; 6语音信号和面部表情信号分别传送给语音生成组件C23和面部表情生成组件C33,机器人从而播放与肢体动作协调一致的语音和做出与肢体动作协调一致的面部表情; 以上三大部分执行时为并行执行; 包括以下步骤: S11、机器人读取包括且不限于语音文本内容文件C11、面部表情描述文件C12、肢体动作数据文件C13;为了并发地执行机器人的语音生成流程、面部表情投影流程与动作生成流程,此步骤完成之后并发执行S21、S31和S41步骤; S21、机器人通过数据流一D11将语音文本内容传输至文本-语音转换组件C21,数据流一D11是对语音文本内容文件C11的封装; S22、文本-语音转换组件C21执行文本-语音转换逻辑,生成语音信号数据流四D21和数据流五D22,数据流四D21和数据流五D22内容相同;为了并发地执行机器人的音频输出流程、面部表情投影流程和肢体动作识别与执行流程,此步骤完成之后,同步等待S35、S46步骤的完成,并发执行S23、S24步骤; S23、语音生成组件C23将文本-语音转换组件C21、面部表情-语音肢体动作转换组件C32、肢体动作-语音面部表情转换组件C42生成的数据流四D21、数据流十D33、数据流十五D44封装为音频文件D51,传输至音频输出组件C50;此步骤完成之后,然后S51执行步骤; S24、文本-语音转换组件C21将生成的语音信号数据流五D22传输至语音-面部表情肢体动作转换组件C22;为了并发地执行机器人的音频输出流程、面部表情投影流程和肢体动作识别与执行流程,此步骤完成之后并发执行S25、S26步骤; S25、语音-面部表情肢体动作转换组件C22执行语音-面部表情转换逻辑,生成数据流六D23,数据流六D23是由语音文本内容文件C11处理得到的表情信号,此步骤完成之后,同步等待S32、S45步骤的完成,然后执行S33步骤; S26、语音-面部表情肢体动作转换组件C22执行语音-肢体动作转换逻辑,生成数据流七D24,数据流七D24是由语音文本内容文件C11处理得到的肢体动作信号,此步骤完成之后,同步等待S36、S42步骤的完成,然后执行S43步骤; S31、机器人通过数据流二D12将面部表情描述文件C12传输至面部表情识别组件C31,数据流二D12是对面部表情描述文件C12的封装; S32、面部表情识别组件C31执行面部表情识别逻辑,生成表情信号数据流八D31、数据流九D32,数据流八D31和数据流九D32内容相同;为了并发地执行机器人的音频输出流程、面部表情投影流程和肢体动作识别与执行流程,此步骤完成之后同步等待S25、S45步骤的完成,并发执行S33、S34步骤; S33、面部表情生成组件C33将语音-面部表情肢体动作转换组件C22、面部表情识别组件C31、肢体动作-语音面部表情转换组件C42生成的表情信号数据流六D23、数据流八D31、数据流十四D43封装为表情文件D61,传输至面部表情投影组件C60,然后S61执行步骤; S34、面部表情识别组件C31将生成的表情信号数据流九D32传输至面部表情-语音肢体动作转换组件C32;为了并发地执行机器人的音频输出流程、面部表情投影流程和肢体动作识别与执行流程,此步骤完成之后并发执行S35、S36步骤; S35、面部表情-语音肢体动作转换组件C32执行面部表情-语音转换逻辑,生成数据流十D33,数据流十D33是由面部表情描述文件C12处理得到的表情信号,此步骤完成之后,同步等待S22、S46步骤的完成,然后执行S23步骤; S36、面部表情-语音肢体动作转换组件C32执行面部表情-肢体动作转换逻辑,生成数据流十一D34,数据流十一D34是由面部表情描述文件C12处理得到的肢体动作信号,此步骤完成之后,同步等待S26、S42步骤的完成,然后执行S43步骤; S41、通过数据流三D13将肢体动作数据文件C13传输至肢体动作识别组件C41;其中,数据流三D13是对肢体动作数据文件C13的封装; S42、肢体动作识别组件C41执行运动意图识别逻辑,生成肢体动作信号数据流十二D41和数据流十三D42,数据流十二D41和数据流十三D42内容相同;为了并发地执行机器人的音频输出流程、面部表情投影流程和肢体动作识别与执行流程,此步骤完成之后同步等待S26、S36步骤的完成,并发执行S43、S44步骤; S43、肢体动作生成组件C43将语音-面部表情肢体动作转换组件C22、面部表情-语音肢体动作转换组件C32、肢体动作识别组件C41生成的肢体动作信号数据流十二D41封装为动作控制序列数据流D71,传输至动作执行组件C70;此步骤完成之后执行S71步骤; S44、肢体动作识别组件C41将生成的肢体动作信号数据流十三D42传输至肢体动作-语音面部表情转换组件C42;为了并发地执行机器人的音频输出流程、面部表情投影流程和肢体动作识别与执行流程,此步骤完成之后并发执行S45、S46步骤; S45、肢体动作-语音面部表情转换组件C42执行肢体动作-面部表情转换逻辑,生成数据流十四D43,数据流十四D43是由生成肢体动作数据文件C13得到的表情信号,此步骤完成之后,同步等待S25、S32步骤的完成,然后S33执行步骤; S46、肢体动作-语音面部表情转换组件C42执行肢体动作-语音转换逻辑,生成数据流十五D44,数据流十五D44是由生成肢体动作数据文件C13得到的语音信号,此步骤完成之后,同步等待S22、S35步骤的完成,然后S23执行步骤; S51:音频输出组件C50解析音频文件D51,并通过音频播放器C51播放机器人语音;至此,机器人的语音生成流程执行完成; S61、面部表情投影组件C60解析表情文件D61,并通过投影机C61投影到机器人的人形脸部外壳上;至此,机器人的面部表情识别与投影流程执行完成; S71、动作执行组件C70解析动作控制序列数据流D71,并实现机器人的肢体运动,至此,机器人的肢体动作识别与执行流程执行完成。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人上海大学,其通讯地址为:200436 上海市宝山区上大路99号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励