GLM-5が登場、AIの新時代へ:モデルがエンジニアとして進化
この新たな段階のために構築されたGLM-5は、コーディングや自律的なタスク実行において最も優れたオープンソースモデルのひとつです。現実的なプログラミング環境、特に、複雑なシステム設計や、継続的な計画や実行が必要となる長期タスク(long-horizon task)において、Claude Opus 4.5に迫る性能を発揮します。
このモデルはキャパシティーと効率の向上を目指す新たなアーキテクチャーに基づいています。総パラメーター数は3,550億から7,440億に、アクティブパラメーター数は320億から400億に増加し、事前学習データは28.5兆トークンに拡大しました。さらに、学習方法も進化しています。Slimeと呼ばれるフレームワークにより、非同期の強化学習を大規模に展開できるようになり、モデルが長時間にわたるやり取りから継続的に学習し、学習後の効率を高めることが可能となります。また、DeepSeek Sparse Attentionを新たに導入し、長いコンテキストにおける性能を維持しつつ、展開コストを削減し、トークン効率を向上させます。
ベンチマークでも顕著な性能の向上が示されています。GLM-5はSWE-bench-Verifiedでは77.8、Terminal Bench 2.0では56.2と、オープンソースモデルとしては最高のスコアを記録しており、ソフトウェアエンジニアリング関連の複数のタスクにおいてGemini 3 Proを上回っています。自動販売機ビジネスを1年間運営するシミュレーションベンチマークのVending Bench 2においては、最終的な収支が4,432ドルとなり、運用面とコスト面の両方で他のオープンソースモデルを上回りました。
これらの結果は、長期的な目標の維持、リソース管理、多段階の処理の連携という、エージェント型エンジニアリングに求められる特性を示しています。モデルがこのような機能をますます担うようになる中で、最前線のAIはコードを生成するものから、実際に機能するシステムを提供するものにシフトしつつあるようです。
チャットおよび公式APIアクセス
Z.ai Chat: https://chat.z.ai
GLM Coding
Plan: https://z.ai/subscribe?utm_source=pr&utm_medium=press&utm_campaign=launch
オープンソースリポジトリー
GitHub: https://github.com/zai-org/GLM-5
Hugging Face: https://huggingface.co/zai-org/GLM-5
ブログ
GLM-5技術ブログ: https://z.ai/blog/glm-5
