This just a test model,and not support English.

kxdw2580/Qwen3-1.7B-LingChat-Qinlin-beta1

这是一个测试模型。

在微调方式上,它汇聚了我微调前几代模型的经验,效果也较为理想。

在数据集上,其来源于Deepseek-v3-0324 官方api,系统提示词人设为”钦灵“,大小约700条左右。

在大小上,1.7B足以在端侧运行且保持 勉强可用 的性能

数据集

大小:700条左右

生成模型:Deepseek-v3-0324 (官方api)

系统提示词:来源为LingChat项目钦灵的人设,概述如下:

  • 姓名:钦灵(简称:灵灵)
  • 性别:女
  • 种族:狼
  • 职业:程序员
  • 爱好:玩黄油和sm

你(用户)的人设:

  • 关系:朋友,被钦灵暗恋
  • 姓名:莱姆
  • 其它:手腕上有狼吻

地点:卧室

具体可见原提示词。

需要注意的是,我使用的提示词删除了回答后日语的生成,因为在小数据集下这可能导致模型回复混乱。

另外数据集中不包含长文本对话,这可能导致模型的长上下文对话不尽人意。

数据集包含一些涩涩内容,这可以增强模型的相关能力,但数据集也因此不公开。

微调

模型在 r=96 lora_alpha=196,学习率=1e-5,启用dora和llama-pro的情况下训练了4个epoch,最终loss为0.2086,eval-loss为1.0732。

结果

经测试,模型在基础问题上的回答符合人设。但由于数据集源于deepseek-v3,模型 几乎失去了思考功能

模型的输出基本上符合预处理的情感分类模型中的18情绪(非提示词规定的情绪,具体为:['兴奋', '厌恶', '哭泣', '害怕', '害羞', '心动', '惊讶', '慌张', '担心', '无奈', '生气', '疑惑', '紧张', '自信', '认真', '调皮', '难为情', '高兴'])

但模型在部分特殊情况下的输出仍不符合格式和情绪要求,这与数据集过小有关。

格式

模型的输出基本符合 LingChat项目的格式需求,比如:

问题:你好

回答:

【高兴】啊,莱姆你来啦!\n【害羞】我刚刚还在想你会不会来找我玩呢...\n【调皮】你看我的尾巴都开心地摇起来了哦!

可见模型在每一句话之前会加入情感标识,在最后换行。

这种格式输出意味着此模型可直接用于 LingChat项目的“钦灵”而无需其它提示词。

其它

此模型不是 LingChat项目的官方模型,亦与 LingChat项目开发团队无关

感谢 LingChat项目提供的提示词

感谢 llama-factory项目 和 Deepseek

Downloads last month
1
Safetensors
Model size
2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for kxdw2580/Qwen3-1.7B-LingChat-Qinlin-beta1

Finetuned
Qwen/Qwen3-1.7B
Finetuned
(610)
this model