※一部事業者の掲載は日を追って行います
モデル
汎用言語
ABEJA Qwen2.5 32B-Japanese v0.1
事業者名: 株式会社ABEJA
用途: 企業特化モデルを作成する時のベースモデル。このモデルに事後学習を実施することで、精度高く目的の特化モデルを作成可能。
特徴: Alibaba社のQwen2.5-32B-instuctをベースに、高品質な日本語データセットで継続事前学習を実施。Chatvectorにより、指示追従性能を確保。GPT4を超える性能。
公開形態・ライセンス: OSS
公開リンク: https://huggingface.co/abeja/ABEJA-Qwen2.5-32b-Japanese-v0.1
ABEJA-QwQ32b-Reasoning-Japanese-v1.0
事業者名: 株式会社ABEJA
用途: 社内ナレッジ基盤向けAgentなど、機密性の高い議事録・契約書・技術仕様書などを読み込み、実務に活用できるAgentの思考エンジン。クラウドに出せない情報を扱うことができるため、製造・金融・公共機関などオンプレ導入が必須の現場でナレッジ活用を加速できる。
特徴: Alibaba社のQwQ-32Bから、マージ技術によりReasonin能力をABEJA Qwen2.5 32B-Japanese v0.1に付与。その後、Reasoning用のデータセットで事後学習を実施。o1-previewを超える性能。 推論時にthinkingをする分だけ速度は遅いが性能が高い。
公開形態・ライセンス: OSS
公開リンク: https://huggingface.co/abeja/ABEJA-QwQ32b-Reasoning-Japanese-v1.0
ABEJA Qwen2.5 7B-Japanese v0.1
事業者名: 株式会社ABEJA
用途: 7Bと軽量なため通信制限があるような環境や、計算資源に限りのある用途において使用できる軽量モデル。このモデルに事後学習を実施することで特定用途に特化したモデルを作成することも可能。
特徴: 蒸留技術により、ABEJA Qwen2.5 32B-Japanese v0.1の性能を7Bモデルに引き継ぎ。ChatVectorにより指示追従性能を獲得。GPT3.5-turboを超える性能。
公開形態・ライセンス: OSS
公開リンク: https://huggingface.co/abeja/ABEJA-Qwen2.5-7b-Japanese-v0.1
ABEJA Qwen2.5 32B-Japanese v1.0
事業者名: 株式会社ABEJA
用途: 企業特化モデルへのチューニングのベースモデルとして活用可能。エッジデバイス上で高精度の小型化モデルを活用できるため、クラウドに出せない情報の取り扱いができるほか、オフィスや工場など多様な環境で活用できる。
特徴: アノテーションによる高品質なデータセットで事後学習を実施。特化タスクにおいてABEJA Qwen2.5 32B-Japanese v0.1の改善バージョン。GPT-4を上回る性能。
公開形態・ライセンス: OSS
公開リンク: https://huggingface.co/abeja/ABEJA-Qwen2.5-32b-Japanese-v1.0
PLaMo 2 1B
事業者名: 株式会社Prefererred Networks/株式会社Prefererred Elements
用途: LLMの研究開発などに活用する。
特徴: SambaのようにState Space modelとsliding window attentionを組み合わせたモデルで、海外のモデルと比べて日本語の学習しており、高い日本語能力を有する。
公開形態・ライセンス: apache-2.0
公開リンク: https://huggingface.co/pfnet/plamo-2-1b
PLaMo 2 8B
事業者名: 株式会社Prefererred Networks/株式会社Prefererred Elements
用途: LLMの研究開発などに活用する。
特徴: SambaのようにState Space modelとsliding window attentionを組み合わせたモデルで、海外のモデルと比べて日本語の学習しており、高い日本語能力を有する。
公開形態・ライセンス: plamo-community-license,
https://huggingface.co/pfnet/plamo-2-8b/blob/main/LICENSE/ja
公開リンク: https://huggingface.co/pfnet/plamo-2-8b
マルチモーダル
oboro:
事業者名: AiHUB株式会社
用途: アニメ制作補助環境で、文字列から画像を生成し、また、それによって可能になる派生製品によって、アニメ制作事業者の負担を軽減する。
特徴: 独自設計のRectified Flow Transformerモデル(12億パラメータ)。英文テキストからの画像生成に対応。
公開形態・ライセンス: 事前学習モデルの学習済み重み・推論スクリプトを公開。Apache-2.0ライセンス
公開リンク: https://huggingface.co/aihub-geniac/oboro
AIdeaLab VideoJP
事業者名: 株式会社AIdeaLab
用途: 入力された言葉に従った動画を生成する事ができ、主にプレゼンテーションの動画素材などに活用する。
特徴: 最先端の高速アルゴリズムであるRectified Flow Transforemerを使用しており、GPUを使い数秒で動画を生成できる。また、入力された言葉には英語だけではなく、日本語も用いることができる。
公開形態・ライセンス: 学習済み重みと推論コードをApache Lisence 2.0で公開。
公開リンク: https://huggingface.co/aidealab/AIdeaLab-VideoJP
NABLA-VL
事業者名: NABLAS株式会社
用途: テキスト・画像・動画に関する質問応答、会話。
特徴: 日英の質問応答ベンチマークにて同規模帯モデル中最高性能。
公開形態・ライセンス: 重み・学習コード・推論コードを公開。
公開リンク: https://huggingface.co/nablasinc/NABLA-VL, https://github.com/nablas-inc/NABLA-VL
Heron-NVILA-Lite(33B/15B/2B/1B)
事業者名: Turing株式会社
用途: 視覚・言語・行動の統合理解に基づく自動運転支援や画像キャプション、空間把握、自然言語問答等。日本語中心のマルチモーダルモデルとして多様なアプリケーションで利用可能。
特徴: NVILAアーキテクチャ採用した日本語の視覚-言語マルチモーダルモデル。大規模な画像-テキストデータセットを用いスクラッチ開発。15BモデルはHeron-Benchで73.5となり、国内外の同規模オープンモデルで最高性能。2Bなど小規模モデルでも高精度・高速推論を実現し、ローカル推論可能なiOSアプリも公開。
公開形態・ライセンス: モデル重み・学習コード・分散学習スクリプト、iOSアプリ、Apache-2.0
公開リンク:
https://huggingface.co/turing-motors/Heron-NVILA-Lite-33B
https://huggingface.co/turing-motors/Heron-NVILA-Lite-15B
https://huggingface.co/turing-motors/Heron-NVILA-Lite-2B
https://huggingface.co/turing-motors/Heron-NVILA-Lite-1B
https://zenn.dev/turing_motors/articles/7ac8ebe8756a3e
https://apps.apple.com/jp/app/heron/id6745646268
KARAKURI VL 32B Instruct 2507
事業者名: カラクリ株式会社
用途: 日本語の視覚言語タスク。
特徴: Qwen 2.5 VL 32Bをベースとして AWS Trainium を用いて学習された視覚言語モデル。日本語画像認識の性能が高く、特にコンピュータ画面情報の認識性能が高い。推論モデルと比べて素早く返答することが可能。
公開形態・ライセンス: 学習済み重み、Apache-2.0ライセンス
公開リンク: https://huggingface.co/karakuri-ai/karakuri-vl-32b-instruct-2507
KARAKURI VL 32B Thinking 2507 Experimental
事業者名: カラクリ株式会社
用途: 日本語の視覚言語タスク。
特徴: Qwen 2.5 VL 32Bをベースとして AWS Trainium を用いて学習された視覚言語モデル。日本語画像認識の性能が高く、特にコンピュータ画面情報の認識性能が高い。長時間の推論を行うことで推論のないモデルより高い認識能力を実現している。
公開形態・ライセンス: 学習済み重み、Apache-2.0ライセンス
公開リンク: https://huggingface.co/karakuri-ai/karakuri-vl-32b-thinking-2507-exp
Stockmark-2-VL-100B-beta
事業者名: ストックマーク株式会社
用途: 日本語の一般の言語・対話タスク。
特徴: フルスクラッチで開発された日本語を主な対象とした1000億パラメータの指示学習済みの大規模言語モデル。日本語理解の性能が高く、対話のベンチマークである日本語MT-benchでは、日本でフルスクラッチで開発されたLLMの中では最高性能を示す。またビジネスドメインの質問応答ではGPT-4oよりも高い性能を示す。
公開形態・ライセンス: 学習済み重み、MIT
公開リンク: https://huggingface.co/stockmark/Stockmark-2-VL-100B-beta
DATAGRID-Open-Sora-Plan-v1.3.0-0.16M
事業者名: 株式会社データグリッド
用途: テキスト(プロンプト)から数秒程度の任意の動画を生成することができる。
特徴: Open-Sora-Plan_v1.3を基盤として、ロイヤリティフリーの動画共有サイトから収集した16万の動画データセットをベースにクレンジングしたデータセットで学習した。学習コード、重みをApache 2.0で公開予定。
公開形態・ライセンス: 学習済み重み・推論スクリプトを公開。Apache-2.0ライセンス
公開リンク: https://huggingface.co/DATAGRID-research/DATAGRID-Open-Sora-Plan-v1.3.0-0.16M
DATAGRID-Local-Attention-DiT-v1.0.0-0.52B
事業者名: 株式会社データグリッド
用途: テキスト(プロンプト)から任意の画像を生成することができる。
特徴: PixArt-αのDiffusion Transformerをベースに、従来のグローバル注意機構の代わりに独自設計の局所的注意機構(Local Attention)を導入することで、計算効率の向上とパラメータ数の削減を実現している。
公開形態・ライセンス: 学習済み重み・推論スクリプトを公開。Apache-2.0ライセンス
公開リンク: https://huggingface.co/DATAGRID-research/DATAGRID-Local-Attention-DiT-v1.0.0-0.52B
Llama-3.1-70B-Instruct-multimodal-JP-Graph-v0.1
事業者名: 株式会社リコー
用途: 企業の様々なドキュメント群(折れ線グラフ、棒グラフ、円グラフ、表など)からQA形式で正しく情報を抽出し、RAG等の回答精度向上を含めて企業の知の活用を更に促進する。
特徴: 日本語に強い国産のLlama-3.1-Swallow-70B-Instruct-v0.3を採用し、更にQwen2-VLのビジョンエンコーダを用いてLLaVA方式でマルチモーダル化を実施。その後日本語の図表を中心に学習させることによって国内のデータに最適化。商用利用不可のデータは学習に利用せず、モデルを利用して生成した出力を学習利用可能なLLMを用いてほぼ全ての学習データを生成。
公開形態・ライセンス: 学習済み重み・推論スクリプトを公開。LLM部分はLlama-3.1-Swallow-70B-Instruct-v0.3と同じくMETA LLAMA 3.1 コミュニティライセンスおよびGemma利用規約に従う。またビジョンエンコーダ部分はQwen2-VL-7B-Instructと同じくApache-2.0ライセンスに従う。
公開リンク: https://huggingface.co/r-g2-2024/Llama-3.1-70B-Instruct-multimodal-JP-Graph-v0.1
ソフトウェア開発
Llama 3.1 Future Code Ja 8B
事業者名: フューチャー株式会社
用途: 日本語とソフトウェア開発に特化した基盤モデル。
特徴: 日本語が含まれるソースコード補完などのソフトウェア開発に強みを持ち、Llama 3.1 8Bを超えるコード補完性能を持つ。
公開形態・ライセンス: 学習済み重みを公開予定。META LLAMA 3.1 COMMUNITY LICENSE
公開リンク: https://huggingface.co/future-architect/Llama-3.1-Future-Code-Ja-8B
製薬/創薬
JPharmatron-7B
事業者名: 株式会社EQUES
用途: 製薬・薬学分野のドメイン特化モデルで、チャットや文書生成によって同分野の業務効率化に貢献する。
特徴: オープンモデルであるQwen2.5-7Bをベースにしており、ローカル環境(社内サーバ、ラップトップ等)で動作するサイズでありながら高い日本語性能を実現。データをネットワーク内部に保持する必要がある環境でも使用可能。
公開形態・ライセンス: 学習済み重み・学習コードを公開。重みはHuggingface形式で公開しているため、推論時における既存の資産(推論高速化ライブラリなど)を活用できる。
公開リンク: https://huggingface.co/EQUES/JPharmatron-7B
SG4D100M
事業者名: SyntheticGestalt株式会社
用途: SG4D100Mは、位相幾何学の知見を活かした新たな分子表現を用いて、立体構造情報を扱えるようにした複雑なモデルを1億件の化合物データで事前学習させた小型版モデル。この基盤モデルは分子関連産業における多様な下流タスクの「共通基盤」として、実験データが限られている場合でも、高精度なモデル開発を可能にする。
特徴: 分子の立体構造を適切に扱うためにグローバルな SE(3) 不変性有し、複数のコンフォメーション(4次元分子表現)を処理可能。
公開形態・ライセンス: Google Cloud Marketplace および AWS Marketplace
公開リンク:
- Google Cloud Marketplace
https://console.cloud.google.com/marketplace/product/syntheticgestalt-public/sg4d100m
- AWS Marketplace
https://aws.amazon.com/marketplace/seller-profile?id=9af00667-4d52-4280-9f96-44124cf443cb
CellScribe -300M-step10k
事業者名: 株式会社ヒューマノーム研究所
用途: 遺伝子発現量データを細胞の性質を示す数値列(潜在空間のベクトル)に変換する。この潜在空間を活用することで、実験結果に基づく細胞状態の比較や、薬剤や疾病などが細胞に与える影響の予測が可能になる。
特徴: 先行研究scFoundationの非対称エンコーダ・デコーダ型アーキテクチャをベースに拡張したモデル(3億パラメータ)。公共DBから収集した約9億細胞分のデータから高品質な約3億細胞分を抽出した世界最大級となるデータセットを構築し学習。
公開形態・ライセンス: 学習済み重み・推論スクリプトを公開。
公開リンク: https://github.com/HumanomeLab/hnl-cellscribe-pub
学習用データセット
マルチモーダル
Wikipedia-VQA-Ja
会社名: NABLAS株式会社
データ形式・モダリティ: テキスト・画像
概要: Wikipediaから収集した日本語ページを元に作成した質問応答ペア200K件程度で構成される。主に、日本語に関する文化的な知識を学習できる。ただし、日本以外のものも含まれる。
公開形態・ライセンス: META LLAMA 3.1 COMMUNITY LICENSE
公開リンク: https://huggingface.co/datasets/nablasinc/Wikipedia-VQA-Ja
MOMIJI(Modern Open Multimodal Japanese Filtered Dataset)
事業者名: Turing株式会社
データ形式・モダリティ: 画像・テキスト
概要: 日本語の視覚・言語モデル向けに構築された超大規模の学習用マルチモーダルデータセット。インターネット上のあらゆるWebページアーカイブから、画像と日本語テキストをもとの構造を保ったインターリーブ形式で収集し、日本語の自然さ・品質を保ったまま学習できるように最適化。元データはCommon Crawlより約3PB分のHTMLデータから、画像と文章の意味的関係が強いペアのみを自動抽出・フィルタリング。日本語品質やNSFW除去のための独自フィルターを実装し、最終的に約2億4,900万枚の日本語画像データを含む(世界最大級)。インターリーブ形式(画像とテキストが交互に登場)で視覚言語マルチモーダルモデルの性能に寄与。
公開形態・ライセンス: CC-BY 4.0
公開リンク: https://huggingface.co/datasets/turing-motors/MOMIJI
STRIDE-QA-Mini
事業者名: Turing株式会社
データ形式・モダリティ: 画像・テキスト
概要: 三次元情報を含む大規模自律移動データセット。交通シーンに関する画像と自然言語の質問応答ペア(VQA形式)で構成され、大規模マルチモーダルモデルで欠落している空間方向の認識や自身の行動と周囲の相互作用を補完するための学習用データセット。マルチモーダルモデルの自動運転応用に必要な身体性を学習させることを目的とする。フルセットである「STRIDE-QA」は、独自に収集した東京都内3500時間分の走行データ(カメラ・LiDAR・車両操作情報含む)を元に、車両、歩行者、自転車などの交通オブジェクトに物体アノテーション、トラッキングIDを付与。正確なオブジェクトとの距離を元に、自身からみた位置、配置について1263万件の自然言語によるVQA形式のテキスト説明を自動で生成した。Mini版は全体の1%(約200シーン、10万VQAペア)を先行して公開。
公開形態・ライセンス: CC-BY-NC-SA 4.0
公開リンク: https://huggingface.co/datasets/turing-motors/STRIDE-QA-Mini
評価用データセット
マルチモーダル
AIdeaLab VideoJP Eval
事業者名: 株式会社AIdeaLab
概要: AIdeaLab VideoJPが生成する画像が一般的な実写映像に近いかを定量的に測定するためのデータとコード。計測対象はFVD。
注記: 真値として、Pixabayから得られた動画を正方形に加工している。
公開形態・ライセンス: 評価用動画と評価用コードをApache Lisence 2.0で公開
OSWorld-JP
事業者名: カラクリ株式会社
データ形式・モダリティ: 画像、テキスト
概要: コンピュータ操作の標準的なベンチマークであるOSWorldを日本語環境にローカライズしたベンチマークと評価環境構築用のコード。
公開形態・ライセンス: Apache-2.0ライセンス
公開リンク: https://github.com/karakuri-ai/OSWorld-JP
BusinessSlideVQA
事業者名: ストックマーク株式会社
データ形式・モダリティ: テキスト・画像
概要: ビジネスドメインのスライドを題材として作成されたVQAの評価データセット。
公開形態・ライセンス: MITライセンス
公開リンク: https://github.com/stockmarkteam/business-slide-questions
JGraphQA
事業者名: 株式会社リコー
データ形式・モダリティ: 画像、テキスト
概要: 日本のIR資料に記載されている円グラフ、棒グラフ、折れ線グラフ、表を集め、人手で全200問のQAを付与した図表用のベンチマーク。質問はChartQAを踏襲し「グラフの値読み取り(FY24の配当性向は何%か、など)、グラフの視覚の理解(青い折れ線グラフの右端の数値はいくつか、など)、グラフの構図の理解(配当はFY20から上昇したか、下降したか、など)」で計測。lmms-evalフレームワークで実施するためのコードも合わせて配布。
注記: 著作権の問題があるため、画像そのものは利用者が用意する必要がある。そのため、ダウンロード用のリンクや引用元情報も合わせて付与。
公開形態・ライセンス: https://huggingface.co/datasets/r-g2-2024/JGraphQA
製薬/創薬
JPharmaBench
事業者名: 株式会社EQUES
データ形式・モダリティ: 自然言語(テキスト)
概要: 独自に作成したベンチマーク3種(日本薬剤師国家試験、名寄せ、齟齬点検)からなるベンチマークスイート。既存のベンチマークではモデルの知識を問うだけの形式が主流であったのに対し、本ベンチマークでは実業務を見据えた高難易度のタスク(齟齬点検)を採用し、業務への導入時に真に指標として役立つベンチマークを目指した。名寄せおよび齟齬点検ベンチマークでは既存LLM (DeepSeek-R1-Distill-Qwen-32B-Japanee) による合成データを活用した。
公開形態・ライセンス: CC-BY 4.0 により商用・研究利用を許諾。
公開リンク: https://huggingface.co/collections/EQUES/jpharmabench-680a34acfe96870e41d050d8
SyntheticGestalt Open Dataset: SPR-Based Fragment Binding and ADMET Properties
事業者名: SyntheticGestalt株式会社
概要: 7,770件の実験データをモデル評価用のデータセットとして公開。結合親和性評価として、4種の標的タンパク質に対する1,905のフラグメント化合物を用いた表面プラズモン共鳴(SPR)試験を実施。また、ADMET評価として、50化合物の血液脳関門(BBB)透過性、ヒト肝ミクロソーム代謝安定性、3T3光毒性試験を行い、各データを取得。これらの評価はすべてEnamine社にて実施し、各実験ごとに設定した閾値に基づき、各試験結果を二値化した。
公開形態・ライセンス: MIT License
公開リンク: https://github.com/syntheticgestalt/sg-open-dataset-fragment-binding-admet
最終更新日:2025年9月11日