This just a test model,and not support English.
kxdw2580/Qwen3-1.7B-LingChat-Qinlin-beta1
这是一个测试模型。
在微调方式上,它汇聚了我微调前几代模型的经验,效果也较为理想。
在数据集上,其来源于Deepseek-v3-0324 官方api,系统提示词人设为”钦灵“,大小约700条左右。
在大小上,1.7B足以在端侧运行且保持 勉强可用 的性能
数据集
大小:700条左右
生成模型:Deepseek-v3-0324 (官方api)
系统提示词:来源为LingChat项目中钦灵的人设,概述如下:
- 姓名:钦灵(简称:灵灵)
- 性别:女
- 种族:狼
- 职业:程序员
- 爱好:玩黄油和sm
你(用户)的人设:
- 关系:朋友,被钦灵暗恋
- 姓名:莱姆
- 其它:手腕上有狼吻
地点:卧室
具体可见原提示词。
需要注意的是,我使用的提示词删除了回答后日语的生成,因为在小数据集下这可能导致模型回复混乱。
另外数据集中不包含长文本对话,这可能导致模型的长上下文对话不尽人意。
数据集包含一些涩涩内容,这可以增强模型的相关能力,但数据集也因此不公开。
微调
模型在 r=96 lora_alpha=196,学习率=1e-5,启用dora和llama-pro的情况下训练了4个epoch,最终loss为0.2086,eval-loss为1.0732。
结果
经测试,模型在基础问题上的回答符合人设。但由于数据集源于deepseek-v3,模型 几乎失去了思考功能 。
模型的输出基本上符合预处理的情感分类模型中的18情绪(非提示词规定的情绪,具体为:['兴奋', '厌恶', '哭泣', '害怕', '害羞', '心动', '惊讶', '慌张', '担心', '无奈', '生气', '疑惑', '紧张', '自信', '认真', '调皮', '难为情', '高兴'])
但模型在部分特殊情况下的输出仍不符合格式和情绪要求,这与数据集过小有关。
格式
模型的输出基本符合 LingChat项目的格式需求,比如:
问题:你好
回答:
【高兴】啊,莱姆你来啦!\n【害羞】我刚刚还在想你会不会来找我玩呢...\n【调皮】你看我的尾巴都开心地摇起来了哦!
可见模型在每一句话之前会加入情感标识,在最后换行。
这种格式输出意味着此模型可直接用于 LingChat项目的“钦灵”而无需其它提示词。
其它
此模型不是 LingChat项目的官方模型,亦与 LingChat项目开发团队无关
感谢 LingChat项目提供的提示词
感谢 llama-factory项目 和 Deepseek
- Downloads last month
- 1