Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 海南大学欧嵬获国家专利权

海南大学欧嵬获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉海南大学申请的专利一种基于大语言模型的定向口令猜测方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119783086B

龙图腾网通过国家知识产权局官网在2025-12-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411848219.7,技术领域涉及:G06F21/46;该发明授权一种基于大语言模型的定向口令猜测方法及系统是由欧嵬;孙成梁;刘帅;庞梦雪;武艺珊;韩文报设计研发完成,并于2024-12-16向国家知识产权局提交的专利申请。

一种基于大语言模型的定向口令猜测方法及系统在说明书摘要公布了:本发明涉及电数据处理技术领域,尤其涉及一种基于大语言模型的定向口令猜测方法及系统,该方法包括以下步骤:获得用户的个人信息和或旧口令;将所述个人信息和或旧口令按设定格式进行改写;将改写后的个人信息和或旧口令输入训练好的glm‑4‑9b模型,输出得到猜测口令。本发明将大语言模型应用在定向口令猜测场景上,以端到端的方式利用个人信息与旧口令生成极具针对性的口令,而无需像以往概率模型依靠经验设置的个人信息标签、引入额外字典库和设计复杂的概率计算,能够帮助快速恢复口令散列文件、揭示用户口令的潜在安全问题,有助于为网络服务方的口令安全策略提供参考。

本发明授权一种基于大语言模型的定向口令猜测方法及系统在权利要求书中公布了:1.一种基于大语言模型的定向口令猜测方法,其特征在于,包括以下步骤: 获得用户的个人信息和或旧口令,所述个人信息包括姓名、生日、电话号码、用户名、身份证号码、邮箱地址中的全部或部分,所述旧口令为一个或多个; 将所述个人信息和或旧口令按alpaca格式进行改写; 将改写后的个人信息和或旧口令输入训练好的glm-4-9b模型,输出得到猜测口令; 所述glm-4-9b模型通过以下步骤训练获得: 获取网络上公开泄露的包含邮箱信息的个人信息数据集和口令数据数据集,并进行清洗,以去除格式不正确的数据条目; 以邮箱作为标识,匹配出同一用户的个人信息数据集和口令数据集,并将匹配出的个人信息数据集和口令数据集进行关联匹配,以构造出原始训练数据集; 使用alpaca格式改写所述原始训练数据集,得到训练数据集;所述使用alpaca格式改写原始训练数据集,包括:Instruction字段通过自然语言的描述指导LLM理解定向口令猜测任务;input字段设置为用户的个人可标识信息和一个旧口令,对于中文用户的姓名,使用中文拼音的形式表示,姓与名之间用一个空格隔开;output字段,随机选取原始训练数据集中历史口令数据中的一个旧口令作为目标口令; 采用所述训练数据集训练glm-4-9b模型;具体的训练步骤如下: 1加载训练数据集与预训练模型:在训练过程的第一步,加载包含目标任务所需的训练数据集和预训练模型,训练数据集包括用户的个人信息和历史口令,记作,其中代表第i个用户的口令,代表与该口令相关的个人信息;接着,加载glm-4-9b模型,记作; 2在进入训练之前,首先需要对输入数据进行预处理,即通过glm-4-9b的tokenizer将文本数据转换为向量表示;假设输入文本是一个由多个词汇组成的序列,tokenizer将其转换为一个固定维度的向量序列,其中每个是一个高维嵌入向量; 3采用LoRA方法对模型进行微调:对于glm-4-9b的每一层权重矩阵,LoRA通过引入低秩矩阵和对其进行替换,即将其表示为: , 其中,r和d分别为低秩矩阵和的秩,表示在微调过程中通过LoRA引入的适应性更新; 4训练模型并更新参数:假设在每一步训练中,输入为向量化后的数据,输出为模型预测的密码,模型通过计算预测密码与真实密码之间的差异来更新参数,损失函数表示为: , 其中,表示模型在参数下的预测结果,是真实密码,Loss为交叉熵损失,N为样本数量;依据损失值通过反向传播算法计算梯度,使用AdamW优化器确定参数更新的幅度; 5合并微调参数与预训练参数:在训练完成后,微调得到的LoRA参数会与glm-4-9b模型的预训练参数进行合并,得到最终的模型权重 6最后,保存训练完成后的glm-4-9b模型,该模型包括合并后的权重和其他模型参数; 训练过程中,训练超参数设置为:总共1个epoch,batch_size为8,gradient_accumulation为32,torch_dtype为torch.bfloat16,使用AdamW优化器,学习率为5e-4;LoRA的参数:lora_r为8,lora_alpha为32,lora_dropout为0.1。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人海南大学,其通讯地址为:570228 海南省海口市人民大道58号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。