PLaMo Translate: 翻訳特化大規模言語モデルの開発
DOI:
https://doi.org/10.51094/jxiv.1461キーワード:
LLM、 翻訳、 MT、 SFT、 Iterative DPO抄録
大規模言語モデル(LLM)の発展により、自然言語処理タスクの性能は飛躍的に向上したが、翻訳タスクに特化したモデルの最適化は依然として課題である。
本研究では、日本語と英語の翻訳に特化した大規模言語モデル「plamo-2-translate」を提案する。
提案モデルは、専用のフォーマットを活用した入出力制御、対訳コーパスと合成データを用いたファインチューニング、Iterative DPOによる最適化を組み合わせ、流暢で文脈に即した翻訳を実現する。
評価実験では、BLEU、chrF、BERTScore、COMET、GEMBA-MQMなどの複数の指標において、ベースモデルや他のLLMと比較して同等以上の性能を達成し、特に人間の評価に近いGEMBA-MQMで顕著な改善を確認した。
さらに、文体指定やコンテキスト保持などの機能を備え、多様な翻訳ニーズに対応する。
本研究で構築したモデルは、Huggingfaceを通じて公開しており、そのほかも様々な形態での公開を進めている。
利益相反に関する開示
開示すべき利益相反はありません。ダウンロード *前日までの集計結果を表示します
引用文献
Brown, T. B.: Language models are few-shot learners, arXiv preprint arXiv:2005.14165 (2020).
DeepSeek-AI: DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning (2025).
Dong, H., Xiong, W., Pang, B., Wang, H., Zhao, H., Zhou, Y., Jiang, N., Sahoo, D., Xiong, C. and Zhang, T.: RLHF Workflow: From Reward Modeling to Online RLHF, Transactions on Machine Learning Research, (online), available from ⟨https://openreview.net/forum?id=a13aYUU9eU⟩ (2024).
Juraska, J., Deutsch, D., Finkelstein, M. and Freitag, M.: MetricX-24: The Google Submission to the WMT 2024 Metrics Shared Task, Proceedings of the Ninth Conference on Machine Translation (Haddow, B., Kocmi, T., Koehn, P. and Monz, C., eds.), Miami, Florida, USA, Association for Computational Linguistics, pp. 492–504 (online), available from ⟨https://aclanthology.org/2024.wmt-1.35⟩ (2024).
Kocmi, T. and Federmann, C.: GEMBA-MQM: Detecting Translation Quality Error Spans with GPT-4, Proceedings of the Eighth Conference on Machine Translation, Singapore, Association for Computational Linguistics, pp. 768–775 (online), DOI: 10.18653/v1/2023.wmt-1.64 (2023).
OpenAI: ChatGPT (2023).
OpenAI: GPT-4 Technical Report (2023).
Papineni, K., Roukos, S., Ward, T. and Zhu, W.-J.: Bleu: a method for automatic evaluation of machine translation, Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311–318 (2002).
Popovi´c, M.: chrF: character n-gram F-score for automatic MT evaluation, Proceedings of the tenth workshop on statistical machine translation, pp. 392–395 (2015).
Rafailov, R., Sharma, A., Mitchell, E., Manning, C. D., Ermon, S. and Finn, C.: Direct preference optimization: Your language model is secretly a reward model, Advances in neural information processing systems, Vol. 36, pp. 53728–53741 (2023).
Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., Zhou, Y., Li, W. and Liu, P. J.: Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer, Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1–67 (online), available from ⟨http://jmlr.org/papers/v21/20-074.html⟩ (2020).
Rei, R., Stewart, C., Farinha, A. C. and Lavie, A.: COMET: A Neural Framework for MT Evaluation, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), Online, pp. 2685–2702 (online), DOI: 10.18653/v1/2020.emnlp-main.213 (2020).
Sutskever, I., Vinyals, O. and Le, Q. V.: Sequence to sequence learning with neural networks, Advances in neural information processing systems, Vol. 27 (2014).
Suzuki, M., Sakaji, H., Hirano, M. and Izumi, K.: Constructing and analyzing domain-specific language model for financial text mining, Information Processing & Management, Vol. 60, No. 2, p. 103194 (online), DOI: 10.1016/j.ipm.2022.103194 (2023).
Suzuki, M., Sakaji, H., Hirano, M. and Izumi, K.: FinDeBERTaV2: Word-Segmentation-Free Pre-trained Language Model for Finance, Transactions of the Japanese Society for Artificial Intelligence, Vol. 39, No. 4, pp. FIN23–G 1–14 (online), DOI: 10.1527/tjsai.39-4 FIN23-G (2024).
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L. and Polosukhin, I.: Attention Is All You Need, Advances in Neural Information Processing Systems, Vol. 30, pp. 5999–6009 (2017).
Xu, J., Lee, A., Sukhbaatar, S. and Weston, J.: Some things are more cringe than others: Iterative preference optimization with the pairwise cringe loss, arXiv preprint arXiv:2312.16682 (2023).
Zhang, T., Kishore, V., Wu, F., Weinberger, K. Q. and Artzi, Y.: BERTScore: Evaluating Text Generation with BERT, International Conference on Learning Representations, (online), available from ⟨https://openreview.net/forum?id=SkeHuCVFDr⟩ (2020).
須藤克仁,小町 守,梶原智之,三田雅人: NLP2025 ワークショップ:LLM 時代のことばの評価の現在と未来,自然言語処理, Vol. 32, No. 2, pp. 738–745(オンライン),DOI: 10.5715/jnlp.32.738 (2025).
ダウンロード
公開済
投稿日時: 2025-08-20 12:03:32 UTC
公開日時: 2025-08-21 04:26:06 UTC
ライセンス
Copyright(c)2025
今城, 健太郎
平野, 正徳
野沢, 健人
中鉢, 魁三郎

この作品は、Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International Licenseの下でライセンスされています。