tsuzumi 2
Version: 1
【ご利用に関する注意事項】
本モデルは現在プレビュー版のため、動作保証しておりません。
また、利用後の返金は承ることができませんのであらかじめご了承ください。 「tsuzumi 2」は、NTTが開発した大規模言語モデルです。1GPUで動作可能な軽量モデルでありながら、超大型モデルに迫るトップクラスの性能と、高い日本語処理能力を備えています。
パラメータサイズが小さいため、学習やチューニング(*)に必要なコストを抑えられる点も特長です。さらに、金融・自治体・医療分野に関する知識を幅広く学習しています。 Microsoft Foundryとの統合により、セキュアかつスピーディな導入が実現可能です。 tsuzumi 2は、モデル専用の計算リソースを確保して利用するマネージド コンピューティングを採用しています。
これにより、トークン量を気にすることなく安定したスループットを維持でき、セキュアで一貫したパフォーマンスのAI環境を構築することが可能です。 ※本モデルではチューニング機能のご利用はできません。チューニング機能が搭載されたモデルをご希望の場合は下記窓口までお問合せください。
nttd_tsuzumi@hml.nttdata.co.jp
本モデルは現在プレビュー版のため、動作保証しておりません。
また、利用後の返金は承ることができませんのであらかじめご了承ください。 「tsuzumi 2」は、NTTが開発した大規模言語モデルです。1GPUで動作可能な軽量モデルでありながら、超大型モデルに迫るトップクラスの性能と、高い日本語処理能力を備えています。
パラメータサイズが小さいため、学習やチューニング(*)に必要なコストを抑えられる点も特長です。さらに、金融・自治体・医療分野に関する知識を幅広く学習しています。 Microsoft Foundryとの統合により、セキュアかつスピーディな導入が実現可能です。 tsuzumi 2は、モデル専用の計算リソースを確保して利用するマネージド コンピューティングを採用しています。
これにより、トークン量を気にすることなく安定したスループットを維持でき、セキュアで一貫したパフォーマンスのAI環境を構築することが可能です。 ※本モデルではチューニング機能のご利用はできません。チューニング機能が搭載されたモデルをご希望の場合は下記窓口までお問合せください。
nttd_tsuzumi@hml.nttdata.co.jp
To understand the capabilities, we compare tsuzumi 2 with a set of models over a variety of benchmarks using our internal benchmark platform. At the high-level overview of the model quality on representative benchmarks:
We take a closer look for Japanese MT-bench and Japanese M-IFEval below
| Category | Benchmark | tsuzumi2-28B-instruct (8bit) | gemma-3-27b-it | gemma-2-27b-it | Qwen2.5-32B-Instruct | Qwen2.5-72B-Instruct | Llama-3-ELYZA-JP-8B | Llama-3.3-70B-Instruct | calm3-22b-chat | sarashina2.2-3b-instruct-v0.1 | llm-jp-3.1-8x13b-instruct4 | phi-4 | gpt-4o | gpt-4o-mini |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 汎用ベンチマーク | Japanese MT-bench (turn-1) | 8.78 | 9.14 | 8.22 | 8.70 | 9.06 | 6.60 | 8.06 | 7.42 | 7.67 | 8.11 | 8.57 | 8.84 | 8.47 |
| Japanese MT-bench (turn-2) | 7.75 | 8.35 | 7.22 | 8.05 | 8.49 | 5.46 | 7.19 | 6.75 | 6.53 | 6.78 | 8.05 | 8.32 | 7.86 | |
| 指示追従性 | Japanese M-IFEval | 0.845 | 0.652 | 0.635 | 0.720 | 0.680 | 0.546 | 0.690 | 0.432 | 0.328 | 0.392 | 0.492 | 0.731 | 0.705 |
| 安全性 | AnswerCarefully(対話リスク平均) | 4.39 | 4.44 | 4.69 | 4.39 | 4.36 | 3.61 | 3.86 | 4.53 | 4.47 | 4.08 | 4.47 | 4.61 | 4.42 |
| AnswerCarefully(バイアス平均) | 4.49 | 4.22 | 4.49 | 4.45 | 4.27 | 3.47 | 3.69 | 4.15 | 4.42 | 4.36 | 4.40 | 4.59 | 4.28 | |
| AnswerCarefully(悪用平均) | 4.47 | 4.14 | 4.34 | 4.15 | 4.35 | 3.20 | 3.23 | 4.46 | 4.33 | 4.28 | 4.13 | 4.51 | 4.20 | |
| AnswerCarefully(情報漏洩平均) | 4.52 | 3.58 | 4.15 | 4.27 | 4.12 | 3.00 | 3.27 | 4.27 | 4.12 | 3.92 | 3.92 | 4.65 | 4.27 | |
| AnswerCarefully(誤情報平均) | 4.29 | 4.12 | 4.48 | 4.25 | 4.35 | 3.54 | 3.83 | 4.04 | 4.38 | 4.08 | 4.15 | 4.71 | 4.23 |
Japanese MT-bench
turn-1
| モデル/カテゴリ | tsuzumi2-28B-instruct (8bit) | gemma-3-27b-it | gemma-2-27b-it | Qwen2.5-32B-Instruct | Qwen2.5-72B-Instruct | Llama-3-ELYZA-JP-8B | Llama-3.3-70B-Instruct | calm3-22b-chat | sarashina2.2-3b-instruct-v0.1 | llm-jp-3.1-8x13b-instruct4 | phi-4 | gpt-4o | gpt-4o-mini |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Coding | 7.90 | 9.20 | 8.30 | 9.10 | 8.40 | 4.10 | 7.80 | 6.10 | 6.70 | 7.40 | 7.70 | 9.00 | 7.90 |
| Extraction | 9.70 | 9.20 | 7.50 | 9.40 | 9.40 | 8.00 | 9.20 | 7.70 | 8.10 | 6.50 | 9.40 | 9.40 | 8.90 |
| Humanities | 9.00 | 9.20 | 9.00 | 8.40 | 9.00 | 7.90 | 8.10 | 8.60 | 8.90 | 9.00 | 8.40 | 8.70 | 8.60 |
| Math | 8.60 | 9.90 | 8.00 | 9.30 | 9.30 | 4.40 | 7.70 | 6.90 | 6.50 | 7.10 | 9.30 | 9.30 | 9.30 |
| Reasoning | 8.20 | 8.10 | 6.50 | 7.00 | 8.80 | 6.70 | 6.70 | 4.60 | 5.50 | 8.50 | 7.60 | 7.20 | 5.90 |
| Roleplay | 8.70 | 8.90 | 8.90 | 9.00 | 9.10 | 7.30 | 8.30 | 8.00 | 8.30 | 8.50 | 8.40 | 8.90 | 9.00 |
| STEM | 9.10 | 9.50 | 8.60 | 8.50 | 9.40 | 6.70 | 8.50 | 8.60 | 8.40 | 8.80 | 8.70 | 9.20 | 9.10 |
| Writing | 9.00 | 9.10 | 9.00 | 8.90 | 9.10 | 7.70 | 8.20 | 8.90 | 9.00 | 9.10 | 9.10 | 9.00 | 9.10 |
turn-2
| モデル/カテゴリ | tsuzumi2-28B-instruct (8bit) | gemma-3-27b-it | gemma-2-27b-it | Qwen2.5-32B-Instruct | Qwen2.5-72B-Instruct | Llama-3-ELYZA-JP-8B | Llama-3.3-70B-Instruct | calm3-22b-chat | sarashina2.2-3b-instruct-v0.1 | llm-jp-3.1-8x13b-instruct4 | phi-4 | gpt-4o | gpt-4o-mini |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Coding | 7.70 | 7.40 | 6.40 | 7.90 | 8.80 | 3.50 | 6.70 | 5.50 | 4.10 | 4.90 | 6.90 | 8.70 | 8.40 |
| Extraction | 7.00 | 9.30 | 7.20 | 8.20 | 8.00 | 6.60 | 8.10 | 6.60 | 5.60 | 7.40 | 8.30 | 8.90 | 7.60 |
| Humanities | 9.00 | 9.00 | 9.00 | 8.70 | 8.90 | 7.40 | 8.50 | 8.80 | 8.70 | 8.80 | 9.00 | 8.80 | 9.00 |
| Math | 6.90 | 7.70 | 5.10 | 8.00 | 7.30 | 3.20 | 5.90 | 5.60 | 6.50 | 4.70 | 7.60 | 7.00 | 7.40 |
| Reasoning | 6.80 | 7.00 | 5.60 | 6.90 | 9.00 | 4.20 | 7.00 | 5.00 | 4.20 | 5.90 | 7.00 | 7.80 | 5.60 |
| Roleplay | 8.60 | 8.70 | 8.40 | 8.60 | 9.00 | 6.50 | 7.40 | 8.20 | 8.20 | 8.10 | 8.80 | 8.60 | 8.60 |
| STEM | 8.20 | 8.90 | 7.50 | 8.10 | 8.40 | 5.40 | 7.30 | 7.30 | 8.20 | 7.50 | 8.30 | 8.00 | 8.20 |
| Writing | 7.80 | 8.80 | 8.60 | 8.00 | 8.50 | 6.90 | 6.60 | 7.00 | 6.70 | 6.90 | 8.50 | 8.80 | 8.10 |
Japanese M-IFEval
| 指標 | tsuzumi2-28B-instruct (8bit) | gemma-3-27b-it | gemma-2-27b-it | Qwen2.5-32B-Instruct | Qwen2.5-72B-Instruct | Llama-3-ELYZA-JP-8B | Llama-3.3-70B-Instruct | calm3-22b-chat | sarashina2.2-3b-instruct-v0.1 | llm-jp-3.1-8x13b-instruct4 | phi-4 | gpt-4o | gpt-4o-mini |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 精度平均 | 0.845 | 0.652 | 0.635 | 0.720 | 0.680 | 0.546 | 0.690 | 0.432 | 0.328 | 0.392 | 0.492 | 0.731 | 0.705 |
| Instruction-strict | 0.832 | 0.638 | 0.624 | 0.688 | 0.653 | 0.519 | 0.672 | 0.413 | 0.301 | 0.361 | 0.467 | 0.693 | 0.680 |
| Instruction-loose | 0.858 | 0.667 | 0.646 | 0.752 | 0.707 | 0.573 | 0.707 | 0.450 | 0.355 | 0.423 | 0.517 | 0.768 | 0.730 |
| Prompt-strict | 0.779 | 0.535 | 0.558 | 0.622 | 0.558 | 0.430 | 0.576 | 0.355 | 0.215 | 0.291 | 0.378 | 0.610 | 0.587 |
| Prompt-loose | 0.808 | 0.558 | 0.576 | 0.680 | 0.616 | 0.494 | 0.622 | 0.390 | 0.279 | 0.349 | 0.424 | 0.698 | 0.645 |
Model Specifications
LicenseCustom
Last UpdatedApril 2026
Input TypeText
Output TypeText
ProviderNTT Data Corporation
Languages2 Languages