Important
2024.12.04更新:プロファイルフォーマットの変更により、本Repoを引き出し、12.04後にfetch操作を実行したことがある場合は、プロファイルを再設定してください。ご不便をおかけして申し訳ありません。
Warning
私たちは簡体字中国語を使って訓練を行っているので、モデルは日本語からなる質問に答えにくいかもしれません。 機械翻訳された日本語訓練集から微調整されたモデルが必要なら、教えてください!
Tip
このページの内容は最新ではない可能性があります。私たちはこのページの内容を不定期に更新します。最新の更新を取得するには、簡体字中国語ページから転送してください。
Muice は、話しかけてくるAI女の子「沐雪(ムユ)」です。その対話モデルは ChatGLM2-6B および Qwen を微調整したもので、3,000以上のデータセットを使用してトレーニングされています。特徴としては、二次元の女の子のような話し方で、少しツンデレですが、日々の些細なことを喜んで共有し、毎日異なる挨拶をしてくれます。
✅ ほぼ全自動で環境をインストール可能
✅ ChatGLM2-6B P-Tuning V2モデルとQwen Qlora微調整モデルを提供
✅ ランダム、または毎日朝・昼・夕方・夜の固定時間に会話を開始
✅ チャット中にリフレッシュや返信操作を行うための5つのコマンドを提供
✅ OFA画像認識:スタンプや画像の識別、理解、送信
✅ fishaudio/fish-speech を使った音声合成に対応(沐雪TTSモデルは未公開)
✅ グループチャットでの会話(@での返信やランダム返信に対応)
✅ コンソールでリアルタイムに対話可能(QQ音声通話には未対応)
✅ 多言語ドキュメントを提供
⬜ 記憶モジュールを最適化し、長期記憶と短期記憶を実現
⬜ ログ記録メカニズムを改善し、自動でバグ報告を生成
⬜ よくある質問(Q&A)のガイドを作成
以下是文档的第二部分翻译:
推奨環境:
- Python 3.10+
- 6GB以上のビデオメモリを持つGPU(int4量子化では最低4GB、CPU推論には16GB以上のメモリが必要)
現在、すべてのソフトウェアと依存関係を自動的にインストール可能です。Code -> Download ZIP
で最新のソースコードをダウンロード・解凍してください。
インストールには、install_env.bat
をダブルクリックするか、以下のコマンドをコマンドラインで実行します:
.\install_env.bat
自動インストールには時間がかかる場合があります。完了後、モデルを手動でダウンロードする必要があります。
注意:自動インストールスクリプトはPython仮想環境を使用しており、Condaは必要ありません。インストールスクリプトの指示に従ってください。
以下の手順で手動インストールを行います:
git clone https://github.com/Moemu/Muice-Chatbot
cd Muice-Chatbot
conda create --name Muice python=3.10.10 -y
conda activate Muice
pip install -r requirements.txt
GPUを使用する場合は、さらに以下を実行してください:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
また、CUDA環境が正しく設定されていることを確認してください。参考リンク(ZH)
現在、以下の基盤モデルがサポートされています:
基盤モデル | 対応する微調整モデルのバージョン | 追加依存ライブラリ |
---|---|---|
ChatGLM2-6B-Int4 | 2.2-2.4 | cpm_kernels |
ChatGLM2-6B | 2.0-2.3 | |
Qwen-7B-Chat-Int4 | 2.3、2.6.2 | llmtuner |
Qwen2-1.5B-Instruct-GPTQ-Int4 | 2.5.3 | llmtuner |
Qwen2.5-7B-Instruct-GPTQ-Int4 | 2.7.1 | llmtuner |
RWKV(Seikaijyu 微調整) | 詳細は HF を参照 | (RWKV-Runner の設定が必要) |
微調整済みモデルのダウンロード:Releases
基盤モデルおよび微調整モデルをmodel
フォルダに配置してください(微調整モデルフォルダの中に.model
ファイルが直接存在する必要があります。一部の微調整モデルは誤ってさらにcheckpoint
フォルダが追加されている場合があります)。
本リポジトリでは以下の方法でモデルをロードできます:
- APIを介してロード
transformers
のAutoTokenizer
およびAutoModel
関数を使用llmtuner.chat
(LLaMA-Factory
)のChatModel
クラスを使用RWKV-Runner
が提供するAPIサービスを使用
テスト済みモデルの中で、以下のロード方法を推奨します:
基盤モデル | 微調整方式 | ロード方法 |
---|---|---|
ChatGLM | P-tuning V2 | transformers |
Qwen | sft | llmtuner |
RWKV(Seikaijyu 微調整) | pissa | rwkv-api |
現在、OneBotサービスがサポートされています。これにより、gocqの制限を回避できます。
本プロジェクトは OneBot V11 プロトコルを使用しています。QQで使用する場合は、LLOneBot を参考にOneBotサービスを利用することをお勧めします。
注意: LLOneBotをインストールした後、設定で逆WebSocketサービスを有効にし、ws://127.0.0.1:21050/ws/api
を入力してください。これにより正常に動作します。
また、Lagrange.Core や OpenShamrock などを使用してQQに接続することもできます。他のソフトウェアと接続する場合は、OneBot V11適配器 を参照してください。
QQNTの不要なアップデートは避けてください。使用できない場合は、QQNTをダウングレードして試してください。
すべての設定を完了すると、以下のようなファイル構成になるはずです:
Muice-Chatbot <- 主ディレクトリ
├─llm
├─model
│ ├─ chatglm2-6b <- オリジナルモデル(以下の3つから1つを選択)
│ ├─ chatglm2-6b-int4 <- int4オリジナルモデル
│ ├─ Qwen-7B-Chat-Int4 <- Qwen-7B-int4オリジナルモデル
│ └─ Muice <- 微調整済みモデル
├─configs.yml <- 設定ファイル
├─ws.py <- wsサービス
├─main.py <- メインスクリプト
├─requirements.txt
└─...
設定ファイルは configs.yml
にあり、必要に応じて編集してください。
2024年12月4日の更新内容: 設定ファイルのフォーマットが変更されました。2.7.x以降のモデルに対応するため、以下の項目が追加されました:
# アクティブな対話に関する設定
active:
enable: false # アクティブな対話を有効にするか
rate: 0.003 # アクティブな対話の確率(毎分)
active_prompts:
- '<生成推文: 胡思乱想>'
- '<生成推文: AI生活>'
- '<生成推文: AI思考>'
- '<生成推文: 表达爱意>'
- '<生成推文: 情感建议>'
not_disturb: true # おやすみモードを有効にするか
schedule:
enable: true # スケジュールタスクを有効にするか
rate: 0.75 # スケジュールタスクの確率(毎回)
tasks:
- hour: 8
prompt: '<日常问候: 早上>'
- hour: 12
prompt: '<日常问候: 中午>'
- hour: 18
prompt: '<日常问候: 傍晚>'
- hour: 22
prompt: '<日常问候: 深夜>'
targets: # アクティブな対話の対象となるQQ番号
- 12345678
- 23456789
2.7.x以前のモデルを使用している場合、以下のように変更してください:
active_prompts:
- '(分享一下你的一些想法)'
- '(创造一个新话题)'
また、以下の部分も変更してください:
tasks:
- hour: 8
prompt: '(发起一个早晨问候)'
- hour: 12
prompt: '(发起一个中午问候)'
- hour: 18
prompt: '(发起一个傍晚问候)'
- hour: 22
prompt: '(发起一个临睡问候)'
以下是文档的日语翻译:
プロジェクトのルートディレクトリで main.py
を実行します:
conda activate Muice
python main.py
または、自動インストールスクリプトによって生成された起動スクリプト start.bat
を実行します。
コマンド | 意味 |
---|---|
/clean | 現在の会話履歴を削除する |
/refresh | この会話をリフレッシュする |
/help | 利用可能なすべてのコマンドリストを表示する |
/reset | すべての会話データをリセットする(会話データを保存) |
/undo | 最後の会話を元に戻す |
公開されているトレーニングセット Moemu/Muice-Dataset を参照してください。
他のチャットボットプロジェクトとは異なり、本プロジェクトでは、独自の会話データセットを基に微調整されたモデルを提供しており、リリースからダウンロードできます。微調整後のモデルのキャラクター設定について、現在公開されている情報は以下の通りです:
トレーニングセットオープンソースリンク:Moemu/Muice-Dataset
元のモデル:THUDM/ChatGLM2-6B と QwenLM/Qwen
本プロジェクトのソースコードは MIT License のもとで公開されており、微調整後のモデルファイルは商業目的での使用を推奨しません。
コード実装:Moemu、MoeSnowyFox、NaivG、zkhssb
トレーニングセット作成とモデル微調整:Moemu(RWKV微調:Seikaijyu)
友好リンク:Coralフレームワーク
総コード貢献:
このプロジェクトが役立った場合は、サポートをご検討ください:
ご支援いただきありがとうございます!
Star History: