Ver 1.3 & 沐雪2.6.2模型更新
与当初B站上发的动态相反,经过一轮测试后,我们认为微调后的基于 Qwen-7B-Chat-Int4 的2.6.2综合性能超越了以前的版本,满足模型发布的最低条件,结合最近引入的新功能,决定发布Ver 1.3和沐雪2.6.2模型。
Ver 1.3更新日志如下:
- 沐雪2.6.2微调模型现已发布,相较于2.5.3,其训练集长度从2403扩充至3000条,这次更新重点加强了新话题发起能力。
- 引入了OFA图像识别功能,可用于识别表情包,要使用此功能,请参考readme文件下载模型并配置相关设置(感谢 @NaivG )
- 引入了 fishaudio/fish-speech 进行语言合成,你可以使用自己的模型进行tts合成,但沐雪的tts可能晚点(因为我忘了)(感谢 @NaivG )
- 支持群聊聊天 #47 (感谢 @MoeSnowyFox 和 @NaivG)
- 支持实时对话
realtime_refence.py
(暂不支持QQ电话) (感谢 @NaivG ) - 修复了一些历史问题并rua了沐雪 #54 #52 #53 #51
同时,我们按照直播弹幕反馈修正了评测标准,一些模型的评分如下:
模型名 | 新话题发起分数 | 直播对话性能 | 日常聊天性能 | 综合对话分数 |
---|---|---|---|---|
Muice-2.3-chatglm2-6b-int4-pt-128-1e-2 | 2.80 | 4.00 | 4.33 | 3.45 |
Muice-2.4-chatglm2-6b-int4-pt-128-1e-2 | 3.20 | 4.00 | 3.50 | 3.45 |
Muice-2.4-Qwen2-1.5B-Instruct-GPTQ-Int4-2e-3 | 1.40 | 3.00 | 6.00 | 5.75 |
Muice-2.5.3-Qwen2-1.5B-Instruct-GPTQ-Int4-2e-3 | 4.04 | 5.00 | 4.33 | 5.29 |
Muice-2.6.2-Qwen-7B-Chat-Int4-5e-4 | 5.20 | 5.67 | 4.00 | 5.75 |
RWKV-x060-World-1B6-v2.1-xuexue-v0 | \ | 4.67 | 4.33 | 4.50 |
RWKV-x060-World-3B-v2-nsfw-xuexue-v0 | \ | 2.33 | 3.67 | 3.20 |
RWKV-x060-World-3B-v2-nsfw-xuexue-v1 | \ | 4.67 | 5.50 | 1.70 |
RWKV-x060-World-3B-v2.1-xuexue-v3.2 | \ | 5.00 | 1.17 | 4.70 |
RWKV-x060-World-3B-v2.1-xuexue-v4 | \ | 4.33 | 4.67 | 4.30 |
其中,新话题发起分数基于新话题发起Prompt所生成的5个回答,直播对话性能基于十条直播中常见的问题所生成的3个回答,日常聊天性能基于十条日常对话所生成的3个回答,综合对话分数基于100条测试集所生成的回答(从2.5开始,100条训练集的答案不包含在训练集中)。
评估结果仅供参考,以适合自己的为准。
最后,在此感谢两位开发者(@MoeSnowyFox 和 @NaivG)的贡献,在学习之余,他们在本次更新中贡献了非常多的功能并且正在负责v2的开发,如果你也对沐雪Chatbot的开发感兴趣,你也可以提出新的功能、提交Pull Requests或者切换到v2分支中加入测试,我谨代表沐雪和各位用户感谢你们!