PEKING, 27.12.2025 /PRNewswire/ — Am 22. Dezember veröffentlichte Z.ai GLM-4.7, die neueste Iteration seiner GLM-Familie großer Sprachmodelle. GLM-4.7 wurde entwickelt, um mehrstufige Aufgaben in der Produktion zu bewältigen, und richtet sich an Entwicklungsumgebungen, die lange Aufgabenzyklen, häufige Tool-Nutzung und höhere Anforderungen an Stabilität und Konsistenz beinhalten.
Aufbauend auf GLM-4.6 mit Fokus auf komplexe Entwicklung
GLM-4.7 ist ein Schritt nach vorn gegenüber GLM-4.6 mit verbesserten Funktionen für Entwickler. Es bietet robuste Unterstützung für Coding-Workflows, komplexes Denken und agentenähnliche Ausführung, wodurch das Modell selbst bei langen, mehrstufigen Aufgaben eine größere Konsistenz sowie ein stabileres Verhalten bei der Interaktion mit externen Tools aufweist. Für Entwickler bedeutet dies, dass GLM-4.7 ein zuverlässiges Tool für die tägliche Produktion ist.
Die Verbesserungen gehen über die technische Leistung hinaus. GLM-4.7 erzeugt auch natürliche und ansprechende Ausgaben für Konversations-, Schreib- und Rollenspielszenarien und entwickelt GLM zu einem kohärenten Open-Source-System weiter.
Entwickelt für reale Entwicklungs-Workflows
Die Erwartungen an die Modellqualität sind zu einem zentralen Fokus für Entwickler geworden. Zusätzlich zum Befolgen von Prompts oder Plänen muss ein Modell die richtigen Tools aufrufen und bei langen, mehrstufigen Aufgaben konsistent bleiben. Wenn sich Aufgabenzyklen verlängern, können selbst kleinere Fehler weitreichende Auswirkungen haben, die Debugging-Kosten in die Höhe treiben und Lieferzeiten verlängern. GLM-4.7 wurde unter Berücksichtigung dieser realen Einschränkungen trainiert und bewertet.
In mehrsprachigen Programmier- und terminalbasierten Agentenumgebungen zeigt das Modell eine größere Stabilität über erweiterte Workflows hinweg. Es unterstützt bereits „denke-dann-handle"-Ausführungsmuster innerhalb weit verbreiteter Coding-Frameworks wie Claude Code, Cline, Roo Code, TRAE und Kilo Code und richtet sich enger daran aus, wie Entwickler komplexe Aufgaben in der Praxis angehen.
Z.ai bewertete GLM-4.7 anhand von 100 realen Programmieraufgaben in einer auf Claude Code basierenden Entwicklungsumgebung, die Frontend-, Backend- und anweisungsfolgende Szenarien abdeckte. Im Vergleich zu GLM-4.6 liefert das neue Modell deutliche Verbesserungen bei den Aufgabenabschlussraten und der Verhaltenskonsistenz. Dies reduziert die Notwendigkeit wiederholter Prompt-Anpassungen und ermöglicht es Entwicklern, sich direkter auf die Lieferung zu konzentrieren. Aufgrund seiner exzellenten Ergebnisse wurde GLM-4.7 als Standardmodell für den GLM Coding Plan ausgewählt.
Zuverlässige Leistung bei Tool-Nutzung und Coding-Benchmarks
Über eine Reihe von Code-Generierungs- und Tool-Nutzungs-Benchmarks hinweg liefert GLM-4.7 eine wettbewerbsfähige Gesamtleistung. Bei BrowseComp, einem auf webbasierte Aufgaben fokussierten Benchmark, erreicht das Modell einen Score von 67,5. Bei τ²-Bench, das die interaktive Tool-Nutzung bewertet, erzielt GLM-4.7 einen Score von 87,4, das bisher höchste berichtete Ergebnis unter öffentlich verfügbaren Open-Source-Modellen.
Bei wichtigen Programmier-Benchmarks einschließlich SWE-bench Verified, LiveCodeBench v6 und Terminal Bench 2.0 leistet GLM-4.7 auf oder über dem Niveau von Claude Sonnet 4.5 und zeigt deutliche Verbesserungen gegenüber GLM-4.6 in mehreren Dimensionen.
Auf Code Arena, einer großangelegten Blind-Evaluation-Plattform mit mehr als einer Million Teilnehmern, belegt GLM-4.7 den ersten Platz unter Open-Source-Modellen und hält die Spitzenposition unter in China entwickelten Modellen.
Besser vorhersagbares und kontrollierbares Denken
GLM-4.7 führt eine feinkörnigere Kontrolle darüber ein, wie das Modell durch langwierige und komplexe Aufgaben denkt. Da sich künstliche Intelligenzsysteme in Produktions-Workflows integrieren, sind solche Fähigkeiten zu einem zunehmenden Fokus für Entwickler geworden. GLM-4.7 ist in der Lage, Konsistenz in seinem Denken über mehrere Interaktionen hinweg aufrechtzuerhalten und gleichzeitig die Tiefe des Denkens entsprechend der Aufgabenkomplexität anzupassen. Dies macht sein Verhalten innerhalb agentenbasierter Systeme im Laufe der Zeit vorhersagbarer. Darüber hinaus erforscht Z.ai aktiv neue Wege zur Bereitstellung von KI im großen Maßstab, während es die GLM-Serie entwickelt und verfeinert.
Verbesserungen bei der Frontend-Generierung und allgemeinen Fähigkeiten
Über die funktionale Korrektheit hinaus zeigt GLM-4.7 ein deutlich ausgereifteres Verständnis von visueller Struktur und etablierten Frontend-Design-Konventionen. Bei Aufgaben wie der Generierung von Webseiten oder Präsentationsmaterialien neigt das Modell dazu, Layouts mit konsistenterem Abstand, klarerer Hierarchie und kohärenteren Stilen zu produzieren, was den Bedarf an manuellen Überarbeitungen nachgelagert reduziert.
Gleichzeitig haben Verbesserungen in der Konversationsqualität und im Schreibstil die Bandbreite der Anwendungsfälle des Modells erweitert. Diese Änderungen machen GLM-4.7 besser geeignet für kreative und interaktive Anwendungen.
Ökosystemintegration und offener Zugang
GLM-4.7 ist über die BigModel.cn API verfügbar und vollständig in die Z.ai Full-Stack-Entwicklungsumgebung integriert. Game-Entwickler und Partner im globalen Ökosystem haben den GLM Coding Plan bereits in ihre Tools integriert, einschließlich Plattformen wie TRAE, Cerebras, YouWare, Vercel, OpenRouter und CodeBuddy. Die Einführung über Entwickler-Tools, Infrastrukturanbieter und Anwendungsplattformen hinweg deutet darauf hin, dass GLM-4.7 in breitere Engineering- und Produktnutzung eingesetzt wird.
Z.ai wird das „weltweit erste börsennotierte Large-Model-Unternehmen"
Z.ai hat angekündigt, dass es darauf abzielt, das weltweit erste börsennotierte Large-Model-Unternehmen zu werden, indem es an der Stock Exchange of Hong Kong gelistet wird. Dieser geplante Börsengang markiert das erste Mal, dass Kapitalmärkte ein börsennotiertes Unternehmen begrüßen werden, dessen Kerngeschäft die unabhängige Entwicklung von AGI-Grundlagenmodellen ist.
In den Jahren 2022, 2023 und 2024 erzielte Z.ai einen Umsatz von jeweils 57,4 Millionen RMB (~8,2 Millionen USD), 124,5 Millionen RMB (~17,7 Millionen USD) und 312,4 Millionen RMB (~44,5 Millionen USD). Zwischen 2022 und 2024 erreichte die durchschnittliche jährliche Umsatzwachstumsrate (CAGR) des Unternehmens 130%. Der Umsatz für die erste Hälfte von 2025 betrug 190 Millionen RMB (~27 Millionen USD), was drei aufeinanderfolgende Jahre der Umsatzverdopplung markiert. Während des Berichtszeitraums war das Large-Model-bezogene Geschäft des Unternehmens sein wichtigster Wachstumstreiber.
GLM-4.7-Verfügbarkeit
Standardmodell für Coding Plan: https://z.ai/subscribe
Jetzt ausprobieren: https://chat.z.ai/
Weights: https://huggingface.co/zai-org/GLM-4.7
Technical blog: https://z.ai/blog/glm-4.7
Über Z.ai
Z.ai wurde 2019 gegründet und entstand aus der Kommerzialisierung technologischer Errungenschaften an der Tsinghua-Universität. Sein Team sind Pioniere bei der Einführung von Large-Model-Forschung in China. Unter Nutzung seiner ursprünglichen GLM (General Language Model) Pre-Training-Architektur hat Z.ai ein Full-Stack-Modellportfolio aufgebaut, das Sprache, Code, Multimodalität und intelligente Agenten abdeckt. Seine Modelle sind mit mehr als 40 im Inland produzierten Chips kompatibel, was es zu einem der wenigen chinesischen Unternehmen macht, deren technische Roadmap mit globalen Top-Standards Schritt hält.
Originalinhalt anzeigen, um Multimedia herunterzuladen:https://www.prnewswire.com/news-releases/zai-releases-glm-4-7-designed-for-real-world-development-environments-cementing-itself-as-chinas-openai-302649821.html
QUELLE Z.ai


