Together AI erweitert Fine-Tuning-Plattform mit Vision- und Reasoning-Unterstützung
Joerg Hiller 18.03.2026 18:27
Together AI fügt seiner Plattform Tool Calling, Reasoning Traces und Vision-Language-Fine-Tuning hinzu, mit 6-fachen Durchsatzgewinnen für Modelle mit über 100 Milliarden Parametern.
Together AI führte am 18. März eine bedeutende Erweiterung seines Fine-Tuning-Services ein und fügte native Unterstützung für Tool Calling, Reasoning Traces und Vision-Language-Modelle hinzu – Funktionen, die anhaltende Probleme für Teams lösen, die produktive KI-Systeme entwickeln.
Das Update kommt, während das Unternehmen Berichten zufolge über eine Finanzierungsrunde verhandelt, die es mit 7,5 Milliarden US-Dollar bewerten würde, mehr als das Doppelte seiner Bewertung von 3,3 Milliarden US-Dollar aus der Serie B im Februar 2025.
Was tatsächlich neu ist
Die Plattform verarbeitet nun drei Kategorien von Fine-Tuning, die zuvor fragmentierte Workarounds erforderten:
Tool Calling erhält End-to-End-Unterstützung unter Verwendung OpenAI-kompatibler Schemata. Das System validiert, dass jeder Tool Call in den Trainingsdaten mit deklarierten Funktionen übereinstimmt, bevor das Training beginnt – eine Absicherung gegen halluzinierte Parameter und Schema-Unstimmigkeiten, die agentenbasierte Workflows plagen.
Reasoning-Fine-Tuning ermöglicht es Teams, Modelle auf domänenspezifische Denkspuren mit einem dedizierten reasoning_content-Feld zu trainieren. Dies ist wichtig, da Reasoning-Formate sich zwischen Modellfamilien stark unterscheiden, was konsistentes Training ohne Standardisierung erschwert.
Vision-Language-Fine-Tuning unterstützt hybride Datensätze, die Bild-Text- und reine Text-Beispiele mischen. Standardmäßig bleibt der Vision-Encoder eingefroren, während Sprachebenen aktualisiert werden, obwohl Teams gemeinsames Training aktivieren können, wenn visuelle Mustererkennung verbessert werden muss.
Infrastruktur-Upgrades
Über neue Funktionen hinaus behauptet Together AI erhebliche Leistungsgewinne durch Optimierung seines Trainings-Stacks für Mixture-of-Experts-Architekturen. Das Unternehmen integrierte SonicMoE-Kernels, die Speicheroperationen mit Berechnungen überlappen, plus benutzerdefinierte CUDA-Kernels für Verlustberechnungen.
Die Ergebnisse variieren je nach Modellgröße: kleinere Modelle verzeichnen etwa 2-fache Durchsatzverbesserungen, während größere Architekturen wie Kimi-K2 6-fache Gewinne erzielen. Die Plattform verarbeitet jetzt Datensätze bis zu 100 GB und Modelle mit über 100 Milliarden Parametern.
Neue Modelle, die für Fine-Tuning verfügbar sind, umfassen Qwen 3.5-Varianten (bis zu 397 Milliarden Parameter), Kimi K2 und K2.5 sowie GLM-4.6 und 4.7.
Praktische Ergänzungen
Das Update umfasst Kostenschätzung vor Jobausführung und Live-Fortschrittsverfolgung mit dynamischen Abschlussprognosen – Funktionen, die grundlegend klingen, aber Budgetüberraschungen verhindern, die Experimente riskant machen.
XY.AI Labs, von Together AI als Kundenbeispiel zitiert, berichtete von einem Wechsel von wöchentlichen zu täglichen Iterationszyklen, während die Kosten um das 2- bis 3-fache gesenkt und die Genauigkeit von 77 % auf 87 % durch Verwendung der Fine-Tuning- und Deployment-APIs der Plattform verbessert wurden.
Marktkontext
Der Zeitpunkt fällt mit einem Anstieg der KI-Infrastrukturausgaben zusammen. Die Startup-Finanzierung im KI-Sektor erreichte in den ersten zwei Monaten 2026 220 Milliarden US-Dollar, laut aktuellen Berichten, wobei ein Großteil dieses Kapitals in Trainings- und Inferenz-Infrastruktur fließt.
Together AI positioniert sich als Alternative zum Aufbau interner KI-Infrastruktur und bietet über seine Plattform Zugang zu über 200 Open-Source-Modellen. Das Angebot des Unternehmens – Infrastrukturkomplexität zu beseitigen, damit Teams sich auf Produktentwicklung konzentrieren können – erstreckt sich nun auf zunehmend ausgefeilte Post-Training-Workflows, die zuvor die Domäne gut ausgestatteter Forschungslabore waren.
Bildquelle: Shutterstock- together ai
- ki-infrastruktur
- fine-tuning
- maschinelles lernen
- unternehmens-ki



