Achievements

研究成果のカテゴリ一覧

※横方向にスクロールできます

公開しているモデル・コーパス・ツールModels, Corpus, and Tools

https://llm-jp.nii.ac.jp/release/in Japanese

https://llm-jp.nii.ac.jp/en/release/in English

LLMの安全性に関するデータ

学術雑誌論文Journal Papers

  1. 菅原朔, 村脇有吾, 宮尾祐介, “大規模言語モデルの評価とその課題”, 人工知能,2024年39巻6 号 p.788-796, 2024年11月
    link

国際会議論文International Conference Papers

  1. Yikun Sun, Zhen Wan, Nobuhiro Ueda, Sakiko Yahata, Fei Cheng, Chenhui Chu, Sadao Kurohashi, “Rapidly Developing High-quality Instruction Data and Evaluation Benchmark for Large Language Models with Minimal Human Effort: A Case Study on Japanese”, LREC-COLING 2024, May 2024
    in Englishpeer-reviewedlink
  2. Eri Onami, Shuhei Kurita, Taiki Miyanishi, Taro Watanabe, “JDocQA: Japanese Document Question Answering Dataset for Generative Language Models”, LREC-COLING2024 (long), May 2024
    in Englishpeer-reviewed
  3. Chieko Nishimura, Shuhei Kurita, Yohei Seki, “Text360Nav: 360-Degree Image Captioning Dataset for Urban Pedestrians Navigation”, LREC-COLING2024 (short), May 2024
    in Englishpeer-reviewed
  4. Masaru Isonuma, Ivan Titov, “Unlearning Traces the Influential Training Data of Language Models”, ACL 2024 (main, long), August 2024
    in Englishpeer-reviewed
  5. Tomoki Doi, Masaru Isonuma, Hitomi Yanaka, “Topic Modeling for Short Texts with Large Language Models”, ACL SRW 2024 (short), August 2024
    in Englishpeer-reviewed
  6. Hirokazu Kiyomaru, Issa Sugiura, Daisuke Kawahara, Sadao Kurohashi, “A Comprehensive Analysis of Memorization in Large Language Models”, INLG 2024, September 2024
    in Englishpeer-reviewed
  7. Koya Sakamoto, Daichi Azuma, Taiki Miyanishi, Shuhei Kurita, Motoaki Kawanabe, “Map-based Modular Approach for Zero-shot Embodied Question Answering”, IROS2024, October 2024
    in Englishpeer-reviewed
  8. Daichi Azuma, Taiki Miyanishi, Shuhei Kurita, Koya Sakamoto, Motoaki Kawanabe, “Answerability Fields: Answerable Location Estimation via Diffusion Models”, IROS2024, October2024
    in Englishpeer-reviewed
  9. Mahiro Ukai, Shuhei Kurita, Atsushi Hashimoto, Yoshitaka Ushiku, Nakamasa Inoue, “AdaCoder: Adaptive Prompt Compression for Programmatic Visual Question Answering”, ACM Multimedia 2024, October 2024
    in Englishpeer-reviewed
  10. Zengqing Wu, Run Peng, Shuyuan Zheng, Qianying Liu, Xu Han, Brian I. Kwon, Makoto Onizuka, Shaojie Tang, Chuan Xiao, “Shall We Team Up: Exploring Spontaneous Cooperation of Competing LLM Agents”, EMNLP 2024 (Findings), November 2024
    in English peer-reviewed
  11. Yuko Nakagi, Takuya Matsuyama, Naoko Koide-Majima, Hiroto Q. Yamaguchi, Rieko Kubo, Shinji Nishimoto, Yu Takagi, “Unveiling Multi-level and Multi-modal Semantic Representations in the Human Brain using Large Language Models”, EMNLP 2024 (Long, Main conference), November 2024
    in English peer-reviewed
  12. Nguyen Ha Thanh, Ken Satoh, “ConsRAG: Minimize LLM Hallucinations in the Legal Domain”, JURIX, December 2024
    in English peer-reviewed
  13. Takuma Miwa, Yusuke Oda, Seiya Kawano, Koichiro Yoshino,”Multi-Pauli Observation for Efficient Channel Generation of Quantum Convolutional Neural Networks”, QIP 2025 (poster), February 2025
    in English peer-reviewed
  14. Takuma Miwa, Yusuke Oda, Seiya Kawano, Koichiro Yoshino, “Efficient Channel Generation for QCNNs based on Multi-Pauli Matrices”, QCNC 2025, March 2025
    in English peer-reviewed
  15. Taishi Nakamura, Takuya Akiba, Kazuki Fujii, Yusuke Oda, Rio Yokota, Jun Suzuki, “Drop-Upcycling: Training Sparse Mixture of Experts with Partial Re-initialization”, ICLR 2025, April 2025
    in English peer-reviewed
  16. Masaru Isonuma, Ivan Titov, “What’s New in My Data? Novelty Exploration via Contrastive Generation”, ICLR 2025, April 2025
    in English peer-reviewed
  17. Huimin Lu, Masaru Isonuma, Junichiro Mori, Ichiro Sakata, “UniDetox: Universal Detoxification of Large Language Models via Dataset Distillation”, ICLR 2025, April 2025
    in English peer-reviewed
  18. Eri Onami, Taiki Miyanishi, Koki Maeda, Shuhei Kurita, “LegalViz: Legal Text Visualization by Text To Diagram Generation”, NAACL 2024 (main, long), April 2025
    in English peer-reviewed

ワークショップ論文Work Shop Papers

  1. Rintaro Enomoto, Arseny Tolmachev, Takuro Niitsuma, Shuhei Kurita, Daisuke Kawahara, “Investigating Web Corpus Filtering Methods for Language Model Development in Japanese”, NAACL 2024 Student Research Workshop, P154-160, June 2024
    in English peer-reviewedlink
  2. Hao Wang, Shuhei Kurita, Shuichiro Shimizu, Daisuke Kawahara, “SlideAVSR: A Dataset of Paper Explanation Videos for Audio-Visual Speech Recognition”, the 3rd Workshop on Advances in Language and Vision Research (ALVR), P129-137, August 2024
    in English peer-reviewedlink
  3. Nguyen Tan Minh, Duy Ngoc Mai, Le Xuan Bach, Nguyen Huu Dung, Pham Cong Minh, Ha Thanh Nguyen, Thi Hai Yen Vuong, “Enhancing Legal Violation Identification with LLMs and Deep Learning Techniques: Achievements in the LegalLens 2024 Competition”, EMNLP 2024 (NLLP), November 2024
    in English peer-reviewed
  4. Ziqi Yin, Hao Wang, Kaito Horio, Daisuke Kawahara, Satoshi Sekine, “Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness on LLM Performance”, EMNLP 2024 Workshop SiCon, November 2024
    in English peer-reviewedlink
  5. Nguyen Ha Thanh, Ken Satoh, “KRAG Framework for Enhancing LLMs in the Legal Domain”, KR 2024(NeLaMKRR), November 2024
    in English peer-reviewed
  6. Wachara Fungwacharakorn, Nguyen Ha Thanh, May Myo Zin, Ken Satoh, “Layer-of-Thoughts Prompting (LoT): Leveraging LLM-Based Retrieval with Constraint Hierarchies”, NeLaMKRR@KR, November 2024
    in English peer-reviewed
  7. Hai-Long Nguyen, Tan-Minh Nguyen, Duc-Minh Nguyen, Thi-Hai-Yen Vuong, Ha-Thanh Nguyen, Xuan-Hieu Phan, Ken Satoh, “Exploiting LLMs’ Reasoning Capability to Infer Implicit Concepts in Legal Information Retrieval”, NeLaMKRR@KR, November 2024
    in English peer-reviewed

講演会・学会発表Conference Papers

  1. Namgi Han, 植田 暢大, 大嶽 匡俊, 勝又 智, 鎌田 啓輔, 清丸 寛一, 児玉 貴志, 菅原 朔, Bowen Chen, 松田 寛, 宮尾 祐介, 村脇 有吾, 劉 弘毅, “llm-jp-eval: 日本語大規模言語モデルの自動評価ツール”, 言語処理学会第30回年次大会, P2085-2089, 2024年3月
    in JapaneseLink
  2. 榎本 倫太郎, Tolmachev Arseny, 新妻 巧朗, 栗田 修平, 河原 大輔, “大規模言語モデル開発における日本語Web文書のフィルタリング手法の検証”, 言語処理学会第30回年次大会, P2274-2279, 2024年3月
    in Japaneselink
  3. Arseny Tolmachev, Masayoshi Hayashi, Takuro Niitsuma, Rintaro Enomoto, Hao Wang, Shuhei Kurita, Daisuke Kawahara, Kazuma Takaoka, Yoshitaka Uchida, “Uzushio: A Distributed Huge Corpus Processor for the LLM Era”, 言語処理学会第30回年次大会, P902-907, 2024年3月
    in Englishlink
  4. 岡崎 直観, 服部 翔, 平井 翔太, 飯田 大貴, 大井 聖也, 藤井 一喜, 中村 泰士, Mengsay Loem, 横田 理央, 水木 栄, “Swallowコーパス: 日本語大規模ウェブコーパス”, 言語処理学会第30回年次大会, P1498-1503, 2024年3月
    in Japaneselink
  5. 藤井 一喜, 中村 泰士, Mengsay Loem, 飯田 大貴, 大井 聖也, 服部 翔, 平井 翔太, 水木 栄, 横田 理央, 岡崎 直観, “継続事前学習による日本語に強い大規模言語モデルの構築”, 言語処理学会第30回年次大会, P2102-2107, 2024年3月
    in Japaneselink
  6. 水木 栄, 飯田 大貴, 藤井 一喜, 中村 泰士, Mengsay Loem, 大井 聖也, 服部 翔, 平井 翔太, 横田 理央, 岡崎 直観, “大規模言語モデルの日本語能力の効率的な強化: 継続事前学習における語彙拡張と対訳コーパスの活用”, 言語処理学会 第30回年次大会, P1514-1519, 2024年3月
    in Japaneselink
  7. 三輪 拓真, 小田 悠介, 河野 誠也, 吉野 幸一郎, “量子計算を用いたカスケードモデルとダイレクトモデルの検討”, 関西合同音声ゼミ, 2024年7月
    in Japaneselink
  8. 高見 享佑,宮尾 祐介,関根 聡,相澤 彰子,黒橋 禎夫, “全国学力・学習状況調査問題によるLLM評価データセット構築に向けて”, 日本教育工学会2024年秋季全国大会, 2024年9月
    in Japaneselink
  9. 赤部 晃一, 前田 航希, 栗田 修平, 小田 悠介, “ESG情報抽出データセットの検討”, NLP若手の会 第19回シンポジウム, 2024年9月
    in Japaneselink
  10. 源 怜維, 小田 悠介, 河原 大輔, “大規模言語モデルの事前学習コーパスにおける要配慮個人情報の検出”, 言語処理学会 第31回年次大会 P2873-2878, 2025年3月
    in Japaneselink
  11. 原田 宥都, 山内 悠輔, 小田 悠介, 大関 洋平, 宮尾 祐介, 高木 優, “大規模言語モデルにおけるSupervised Fine-tuningの包括的検証”, 第31回年次大会 P3978-3983, 2025年3月
    in Japaneselink
  12. 尾崎 慎太郎, 平岡 達也, 大竹 啓永, 大関 洋平, 宮尾 祐介, 渡辺 太郎, 大内 啓樹, 高木 優, “大規模言語モデルにおけるペルソナの役割と内部動作の理解” 言語処理学会 第31回年次大会 P2648-2653, 2025年3月
    in Japaneselink
  13. 稲葉 達郎, 乾健太郎, 宮尾 祐介, 大関 洋平, Benjamin Heinzerling, 高木 優, “スパースオートエンコーダーを用いた大規模言語モデルのチェックポイント横断分析”, 言語処理学会 第31回年次大会 P2185-2190, 2025年3月
    in Japaneselink
  14. 西田 悠人, 小田 悠介, Namgi Han, 高木 優, 宮尾 祐介, “日本語大規模言語モデルの事前訓練過程における下流タスク性能の網羅的な分析”, 言語処理学会 第31回年次大会 P2838-2843, 2025年3月
    in Japaneselink
  15. 勝又 智, 児玉 貴志, 宮尾 祐介, “日本語大規模言語モデルの有用性と安全性の両立に向けたチューニング手法の検討”, 言語処理学会 第31回年次大会 P1710-1715, 2025年3月
    in Japaneselink
  16. Namgi Han, 岡本 拓己, 石田 茂樹, 林 俊宏, Akim Mousterou, Bowen Chen, 宮尾 祐介, “オープン日本語LLMリーダーボードの構築と評価結果の分析”, 言語処理学会 第31回年次大会 P437-442, 2025年3月
    in Japaneselink
  17. 中山 功太, 児玉 貴志, 鈴木 久美, 宮尾 祐介, 関根 聡, “llm-jp-judge: 日本語LLM-as-a-Judge評価ツール”, 言語処理学会 第31回年次大会 P755-760, 2025年3月
    in Japaneselink
  18. 古橋 萌々香, 中山 功太, 児玉 貴志, 菅原 朔, “生成系タスクの自動評価においてチェックリストの使用は有効なのか?”, 言語処理学会 第31回年次大会 P1968-1973, 2025年3月
    in Japaneselink
  19. 鈴木 久美, 勝又 智, 児玉 貴志, 高橋 哲朗, 中山 功太, 関根 聡, “AnswerCarefully:日本語LLM安全性向上のためのデータセット”, 言語処理学会 第31回年次大会 P749-754, 2025年3月
    in Japaneselink
  20. 中里 朋楓, 大西 正輝, 鈴木 久美, 澁谷 遊野, 高木 聡一郎, “ソーシャルメディアからの偽・誤情報データセットとLLM正確性ベンチマークの構築”, 言語処理学会 第31回年次大会 P779-784, 2025年3月
    in Japaneselink
  21. 高橋 哲朗, 鈴木 久美, 関根 聡 “LLMの安全性における大規模人手評価”, 言語処理学会 第31回年次大会 P743-748, 2025年3月
    in Japaneselink
  22. 井之上 直也, 安藤 まや, 後藤 美知子, 関根 聡, 中山 功太, 宮尾 祐介, “日本語を対象としたLLMの大規模人手評価”, 言語処理学会 第31回年次大会 P2797-2802, 2025年3月
    in Japaneselink
  23. Chengzi Zhong, Fei Cheng, Qianying Liu, Jufeng Jiang, Zhen Wan, Chenhui Chu, Yugo Murawaki, Sadao Kurohashi, “What Language Do Japanese-specialized Large Language Models Think in?”, 言語処理学会 第31回年次大会 P2618-2623, 2025年3月
    in Englishlink
  24. 山本 有起, Arjav Singh, Yin Jou Huang, Chenhui Chu, 村脇 有吾, “心理測定テストに関するLLMのメタ知識の検証”, 言語処理学会 第31回年次大会 P3044-3049, 2025年3月
    in Japaneselink
  25. Yikun Sun, Sakiko Yahata, Fei Cheng, Yugo Murawaki, Chenhui Chu and Sadao Kurohashi, “Constructing Open-source Large Language Model Evaluator for Japanese”, 言語処理学会 第31回年次大会 P2861-2866, 2025年3月
    in Englishlink
  26. 杉浦 一瑳, 栗田 修平, 小田 悠介, “ロススパイクの影響分析”, 言語処理学会 第31回年次大会 P686-690, 2025年3月
    in Japaneselink
  27. 笹川 慶人, 前田 航希, 杉浦 一瑳, 栗田 修平, 岡崎 直観, 河原 大輔, “LLM-jp-3 VILA: 日本語マルチモーダルデータセット及び強力な日本語マルチモーダルモデルの構築”, 言語処理学会 第31回年次大会 P1185-1190, 2025年3月
    in Japaneselink
  28. 杉浦 一瑳, 栗田 修平, 小田 悠介, 河原 大輔, 岡崎 直観, “オープンLLMによる翻訳を活用した日本語CLIPの開発”, 言語処理学会 第31回年次大会 P1421-1426, 2025年3月
    in Japaneselink
  29. 前田 航希, 杉浦 一瑳, 小田 悠介, 栗田 修平, 岡崎 直観, “llm-jp-eval-mm: 日本語視覚言語モデルの自動評価基盤”, 言語処理学会 第31回年次大会 P1303-1308, 2025年3月
    in Japaneselink
  30. Zhe Cao, Yusuke Oda, Akiko Aizawa, Taro Watanabe, “Towards Modular Fine-tuning of LLM-based Multilingual Neural Machine Translation”, 言語処理学会 第31回年次大会 P222-227, 2025年3月
    in Englishlink
  31. 梶川 怜恩, 神田 峻介, 赤部 晃一, 小田 悠介, “ベクトル検索におけるテキスト構造化の効果分析”, 言語処理学会 第31回年次大会 P3269-3274, 2025年3月
    in Japaneselink
  32. 三輪 拓真, 小田 悠介, 河野 誠也, 吉野 幸一郎, “量子計算を用いたダイレクトモデル”, 言語処理学会 第31回年次大会 P2711-2715, 2025年3月
    in Japaneselink
  33. 大南 英理, 宮西 大樹, 前田 航希, 栗田 修平, “多言語での判例事実概要からの法的関係性のグラフ可視化”, 言語処理学会 第31回年次大会 P2669-2674, 2025年3月
    in Japaneselink
  34. 榎本 倫太郎, 新妻 巧朗, 栗田 修平, 河原 大輔, “大規模言語モデルにおける多段推論の依存構造と推論能力の関係検証”, 言語処理学会 第31回年次大会 P857-862, 2025年3月
    in Japaneselink
  35. 小林 俊介, 河原 大輔, “LLMによるクイズの自動生成と質問応答への応用”, 言語処理学会 第31回年次大会 P3984-3989, 2025年3月
    in Japaneselink
  36. 小川 隼斗, 河原 大輔, 相澤 彰子, “LLMの学術ドメイン適応のための合成データに基づく統合フレームワーク”. 言語処理学会 第31回年次大会 P3367-3372, 2025年3月
    in Japaneselink
  37. 山岸 聖子, 神藤 駿介, 宮尾 祐介, “大規模言語モデルの法廷通訳への導入可能性の検証”, 言語処理学会 第31回年次大会 P1351-1356, 2025年3月
    in Japaneselink
  38. 神藤 駿介, 宮尾 祐介, 高道 慎之介, “音声トークナイズが音声言語モデルの性能に与える影響の調査”, 言語処理学会 第31回年次大会 P2025-2030, 2025年3月
    in Japaneselink
  39. 古賀 友里愛, 神藤 駿介, 宮尾 祐介, “音声モデルにおけるCritical Period仮説の検証”, 言語処理学会 第31回年次大会 P2702-2706, 2025年3月
    in Japaneselink
  40. 盧 慧敏, 磯沼 大, 森 純一郎, 坂田 一郎, “コーパスの逆蒸留”, 言語処理学会 第31回年次大会 P1345-1350, 2025年3月
    in Japaneselink
  41. 土井 智暉, 磯沼 大, 谷中 瞳, “大規模言語モデルによる自己説明の忠実性は改善するか?”, 言語処理学会 第31回年次大会 P19-24, 2025年3月
    in Japaneselink
  42. 小林 和馬, 相澤 彰子 “大規模言語モデルのタスク特化ドメイン適応における知識獲得効率に関する初期検討” 言語処理学会 第31回年次大会 P1616-1621, 2025年3月
    in Japaneselink
  43. 矢野 一樹, 伊藤 拓海, 鈴木 潤, “モデル拡張によるパラメータ効率的なLLMの事前学習”, 言語処理学会 第31回年次大会 P1658-1663, 2025年3月
    in Japaneselink
  44. Panatchakorn Anantaprayoon, Masahiro Kaneko, Naoaki Okazaki, “Mitigating Social Bias in Large Language Models by Self-Correction”, 言語処理学会 第31回年次大会 P863-868, 2025年3月
    in Englishlink
  45. 大井 聖也, 金子 正弘, 岡崎 直観, 井上 中順, “複数タスク・複数項目に跨ったマルチモーダル自動評価手法”, 言語処理学会 第31回年次大会 P970-975, 2025年3月
    in Japaneselink
  46. 前田 航希, 長谷川 騎平, 栗田 修平, 小田 悠介, 徳久 良子, 岡崎 直観, “日本の文化常識・日常生活知識理解のための視覚言語ベンチマーク MECHA-Ja の構築”, 情報処理学会 第263回自然言語処理研究会 研究報告(2024-NL-263), number 28, P1–P7, March 2025
    in Japanese
  47. 西田 悠人, 小田 悠介, “LLMの学習過程におけるタスク性能の不安定性とその緩和”, 情報処理学会自然言語処理研究会, Vol.2025-NL-263 No.15, March 2025
    in Japanese
  48. 大竹 啓永, 大内 啓樹, 尾崎 慎太郎, 平岡 達也, 大関 洋平, 宮尾 祐介, 渡辺 太郎, 高木 優, “大規模言語モデルにおける地理表現の形成と訓練データの影響” 人工知能学会, 2025
    in Japanese

受賞Awards

  1. 2023/11/07
    LLM-jpが楽天テクノロジー・エクセレンスアワード2023 エクセレンス賞を受賞
    link
    LLM-jp won the Rakuten Technology Excellence Awards 2023
    link
  2. 2024/05/28
    LLM-jpがAAMT長尾賞を受賞
    in Japaneselink
  3. 2024/9/18
    小田悠介特任准教授がGENIACコミュニティ賞を受賞
    in Japanese
  4. 2025/3/7
    言語処理学会優秀賞
    llm-jp-judge: 日本語LLM-as-a-Judge評価ツール
    中山 功太, 児玉 貴志, 鈴木 久美 (NII), 宮尾 祐介 (NII/東大), 関根 聡 (NII)
    link
  5. 2025/3/7
    言語処理学会優秀賞
    モデル拡張によるパラメータ効率的な LLM の事前学習
    矢野 一樹 (東北大), 伊藤 拓海 (東北大/Langsmith), 鈴木 潤 (東北大/理研/NII)
    link
  6. 2025/3/7
    言語処理学会優秀賞
    コーパスの逆蒸留
    盧 慧敏 (東大), 磯沼 大 (東大/エディンバラ大/NII), 森 純一郎 (東大/理研), 坂田 一郎 (東大) 2025年3月7日
    link
  7. 2025/3/7
    言語処理学会若手奨励賞
    llm-jp-eval-mm: 日本語視覚言語モデルの自動評価基盤
    前田 航希 (科学大/NII)
    link
  8. 2025/3/7
    言語処理学会委員特別賞
    AnswerCarefully: 日本語LLM安全性向上のためのデータセット
    鈴木 久美 (NII), 勝又 智 (レトリバ), 児玉 貴志 (NII), 高橋 哲朗 (鹿児島大), 中山 功太, 関根 聡 (NII)
    link
  9. 2025/3/7
    言語処理学会委員特別賞
    Mitigating Social Bias in Large Language Models by Self-Correction
    Panatchakorn Anantaprayoon (科学大), 金子 正弘 (MBZUAI/科学大), 岡崎 直観 (科学大/産総研/NII)
    link
  10. 2025/3/7
    言語処理学会委員特別賞
    LLM-jp-3 VILA: 日本語マルチモーダルデータセット及び強力な日本語マルチモーダルモデルの構築
    笹川 慶人 (早大/NII), 前田 航希 (科学大/NII), 杉浦 一瑳 (京大/NII), 栗田 修平 (NII), 岡崎 直観 (科学大/NII), 河原 大輔 (早大/NII)
    link
  11. 2025/3/7
    言語処理学会委員特別賞
    複数タスク・複数項目に跨ったマルチモーダル自動評価手法
    大井 聖也 (科学大), 金子 正弘 (MBZUAI/科学大), 岡崎 直観 (科学大/産総研/NII), 井上 中順 (科学大)
    link
  12. 2025/3/13
    言語処理学会スポンサー賞(SB Intuitions賞/ELYZA賞)
    コーパスの逆蒸留
    盧 慧敏 (東大), 磯沼 大 (東大/エディンバラ大/NII), 森 純一郎 (東大/理研), 坂田 一郎 (東大)
    link

プレスリリースPress Release

  1. 2023/10/20
    130億パラメータの大規模言語モデル「LLM-jp-13B」を構築
    ~NII主宰LLM勉強会(LLM-jp)の初期の成果をアカデミアや産業界の研究開発に資するために公開~
    Link
    Development of the Large Language Model “LLM-jp-13B” with 13 Billion Parameters
    – The NII-hosted LLM Study Group (LLM-jp) releases initial results to contribute to academic and industrial research and development –
    Link
  2. 2024/4/30
    大規模言語モデル「LLM-jp-13B v2.0」を構築
    ~NII主宰LLM勉強会(LLM-jp)が「LLM-jp-13B」の 後続モデルとその構築に使用した全リソースを公開~
    Link
    Development of the Large Language Model “LLM-jp-13B v2.0”
    The NII-hosted LLM Research Group (LLM-jp) releases the successor model of “LLM-jp-13B,” and makes all resources used for development open for the public –
    Link
  3. 2024/9/17
    約1720億パラメータ(GPT-3級)の大規模言語モデルのフルスクラッチ学習を行い、プレビュー版「LLM-jp-3 172B beta1」を公開
    ~学習データを含めすべてオープンにしたモデルとしては世界最大〜
    Link
    Full-Scratch Learning of a Large Language Model with Approximately 172 billion Parameters (GPT-3 Level) and Preview Release -The World’s Largest Fully Open Model, Including Training Data –
    Link
  4. 2024/12/24
    完全にオープンな約1,720億パラメータ(GPT-3級)の大規模言語モデル 「llm-jp-3-172b-instruct3」を一般公開
    ~GPT-3.5を超える性能を達成~
    Link
    A Fully Open Large Language Model with Approximately 172 Billion Parameters (GPT-3 Level): “llm-jp-3-172b-instruct3” Now Publicly Available
    – Achieving Performance Beyond GPT-3.5 –
    Link

その他Others

  1. 河原 大輔, 空閑 洋平, 黒橋 禎夫, 鈴木 潤, 宮尾 祐介, “LLM-jp: 日本語に強い大規模言語モデルの研究開発を行う組織横断プロジェクト”, 自然言語処理(学会記事), 2024年31巻1号 P266-279, 2024年3月
    in Japaneselink
  2. 黒橋 禎夫, 「生成AIモデルの透明性・信頼性の確保に向けた研究開発拠点形成」について, 文部科学省科学技術・学術審議会情報委員会, 2024年5月
    in Japaneselink
  3. 藤井 一喜, “Google Cloud: HPC Toolkitにて大規模深層学習環境を整備する”, Zenn, 2024年7月
    in Japaneselink
  4. 藤井 一喜, “GENIAC: 172B 事前学習知見”, Zenn, 2024年7月
    in Japaneselink
  5. 藤井 一喜, “Google Cloud の AI Hypercomputer で学習を加速させる”, Google Cloud Next Tokyo 2024, 2024年7月
    in Japaneselink
  6. LLM-jp, Akiko Aizawa, Eiji Aramaki, Bowen Chen, Fei Cheng, Hiroyuki Deguchi, Rintaro Enomoto, Kazuki Fujii, Kensuke Fukumoto, Takuya Fukushima, Namgi Han, Yuto Harada, Chikara Hashimoto, Tatsuya Hiraoka, Shohei Hisada, Sosuke Hosokawa, Lu Jie, Keisuke Kamata, Teruhito Kanazawa, Hiroki Kanezashi, Hiroshi Kataoka, Satoru Katsumata, Daisuke Kawahara, Seiya Kawano, Atsushi Keyaki, Keisuke Kiryu, Hirokazu Kiyomaru, Takashi Kodama, Takahiro Kubo, Yohei Kuga, Ryoma Kumon, Shuhei Kurita, Sadao Kurohashi, Conglong Li, Taiki Maekawa, Hiroshi Matsuda, Yusuke Miyao, Kentaro Mizuki, Sakae Mizuki, Yugo Murawaki, Ryo Nakamura, Taishi Nakamura, Kouta Nakayama, Tomoka Nakazato, Takuro Niitsuma, Jiro Nishitoba, Yusuke Oda, Hayato Ogawa, Takumi Okamoto, Naoaki Okazaki, Yohei Oseki, Shintaro Ozaki, Koki Ryu, Rafal Rzepka, Keisuke Sakaguchi, Shota Sasaki, Satoshi Sekine, Kohei Suda, Saku Sugawara, Issa Sugiura, Hiroaki Sugiyama, Hisami Suzuki, Jun Suzuki, Toyotaro Suzumura, Kensuke Tachibana, Yu Takagi, Kyosuke Takami, Koichi Takeda, Masashi Takeshita, Masahiro Tanaka, Kenjiro Taura, Arseny Tolmachev, Nobuhiro Ueda, Zhen Wan, Shuntaro Yada, Sakiko Yahata, Yuya Yamamoto, Yusuke Yamauchi, Hitomi Yanaka, Rio Yokota, Koichiro Yoshino, “LLM-jp: A Cross-organizational Project for the Research and Development of Fully Open Japanese LLMs”, arXiv, July 2024
    in Englishlink
  7. 黒橋 禎夫, “オープンかつ日本語に強いGPT-3級大規模言語モデルの構築”, GENIAC最終報告会, 2024年9月
    in Japaneselink
  8. 高見 享佑, “Digital Transformation and the Utilization of Educational Data in the Age of AI”,G20 Education Dialogue Education, Technology and Quality Growth in the Digital Era, Beijing, China, October 2024
    in English
  9. Keito Sasagawa, Koki Maeda, Issa Sugiura, Shuhei Kurita, Naoaki Okazaki, Daisuke Kawahara, “Constructing Multimodal Datasets from Scratch for Rapid Development of a Japanese Visual Language Model”, arXiv, October 2024
    in Englishlink
  10. Open Japanese LLM Leaderboard公開, 2024/11/20
    linklink

このサイトはreCAPTCHAによって保護されており、Googleの プライバシーポリシー利用規約 が適用されます。
This site is protected by reCAPTCHA Enterprise and the Google Privacy Policy and Terms of Service apply.
このページは日本語と英語が混在しています。言語切り替え後も同じ内容です。
This page contains both Japanese and English. The content remains the same after language switching