Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中山大学苏勤亮获国家专利权

中山大学苏勤亮获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中山大学申请的专利基于邻居信息及互信息保留变分自编码器的语义哈希方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116894075B

龙图腾网通过国家知识产权局官网在2025-12-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310685089.9,技术领域涉及:G06F16/31;该发明授权基于邻居信息及互信息保留变分自编码器的语义哈希方法是由苏勤亮;陈佳阳设计研发完成,并于2023-06-09向国家知识产权局提交的专利申请。

基于邻居信息及互信息保留变分自编码器的语义哈希方法在说明书摘要公布了:本发明提出一种基于邻居信息及互信息保留变分自编码器的语义哈希方法,涉及文本处理的技术领域,基于文本数据的邻居信息,构建互信息保留的变分自编码器模型,结合变分自编码器模型,将待处理文本数据的邻居信息融入到哈希码训练的过程中,在该过程中,对于文本数据集中文本数据的相邻文本,得出具有容错能力的互信息下界,有效提高文本处理中语义哈希的准确性,提升了文本处理的准确率和效率。

本发明授权基于邻居信息及互信息保留变分自编码器的语义哈希方法在权利要求书中公布了:1.一种基于邻居信息及互信息保留变分自编码器的语义哈希方法,其特征在于,所述方法包括以下步骤: S1.构造文本数据集中文本数据的邻居信息; S2.构建相邻文本之间互信息保留的变分自编码器模型; 步骤S2所述的变分自编码器模型包括:多层感知机编码器E和单层感知机解码器G;所述多层感知机编码器E用于对文本数据进行压缩降维操作,将文本数据从原始空间压缩至低维隐变量空间,估计出隐变量所服从分布的参数,基于隐变量所服从分布的参数得到对应的哈希码;所述单层感知机解码器G用于将哈希码重构,得到文本数据; S3.将文本数据及其邻居信息输入至互信息保留的变分自编码器模型,计算文本数据的重构相似性; 在步骤S3中,设文本数据集中的文本数据表示为x,文本数据对应的隐变量为z,邻居信息表示为,文本数据x通过多层感知机编码器E进行压缩降维操作,估计出隐变量z所服从分布的参数,基于隐变量所服从分布的参数得到隐变量的变分后验分布,基于隐变量的变分后验分布,采样得到对应的哈希码,再通过单层感知机解码器G重构,得到文本数据,文本数据表示由单层感知机解码器G将隐变量z重构回的文本数据; 设隐变量的先验分布为多元伯努利分布,则满足表达式: 其中,表示隐变量的先验分布,为多元伯努利分布的参数; 文本数据的重构相似性计算表达式为: ; S4.从文本数据集中选取相邻文本,计算相邻文本对应的隐变量之间的互信息下界,所述互信息下界具有容错能力; S5.将文本数据的重构相似性和相邻文本对应的隐变量之间的互信息下界最大化,更新互信息保留的变分自编码器模型的模型参数,得到更新后的互信息保留的变分自编码器模型; S6.获取待处理文本数据集,将待处理文本数据集中的文本数据输入至更新后的互信息保留的变分自编码器模型,确定最终的哈希码; S7.利用步骤S6得到的哈希码进行文档处理。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中山大学,其通讯地址为:510275 广东省广州市海珠区新港西路135号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。