AIモデルスタートアップTrillion Labs(トリリオンラボ)が強化学習基盤推論特化モデル「Tri 21B Think」を公開した。グローバルAI性能分析機関アーティフィシャル・アナリシス(Artificial Analysis·AA)リーダーボードでトップ30に名を連ねた。
Tri 21B Thinkは、既存モデルのTri 21Bに強化学習を適用して推論能力を高度化したモデルとなる。問題解決の過程で思考段階をトークンの形で展開し、必要に応じて前の段階に戻って見直す「バックトラッキング(backtracking)」構造を実装した。これによりディープリサーチ、自律型AIエージェント、高難度数学・コーディングなど複雑な課題で性能を高めた。バックトラッキングは、AIが長く考えるほど複雑な課題解決能力が向上する「テストタイムスケーリング(Test-time Scaling)」技術に基づいて動作する。
210億(21B)パラメータ規模で設計されたこのモデルはGPU1枚で駆動が可能である。100B以上の大型モデルが単純駆動に数十枚のGPUを必要とするものと比べて高パフォーマンスとなる。Trillion Labsは大企業や政府のインフラ支援なしの民間資本だけで実装したと明かした。
Trillion Labsは、NAVERHyperCLOVA X(ネイバーハイパークローバX)のエンジニア出身のシン・ジェミン代表が2024年に設立した企業。設立1年で独自開発した言語間相互学習アーキテクチャ「XLDA」を基盤に7B・21B・70B全ラインナップのLLMを最初から開発・公開し、以後、ビジュアル言語モデル(VLM)、拡散基盤トランス構造を適用した大型言語モデル(dLLM)、モバイルワールドモデルgWorldを続けて公開した。
