Thematischer Impuls
Dip‑Lernen: Warum KI‑Chips und Infrastruktur langfristig profitieren
Trotz der jüngsten Marktkorrektur betrachten wir Rechen-, Netzwerk- und Hyperscaler-Plattformen weiterhin als den derzeit direktesten und skalierbarsten Zugang zum KI-Thema. Während sich der Markt nach wie vor auf das Ausmaß der Investitionsausgaben konzentriert, untermauert der zunehmende Nutzen dieser Systeme die These, dass wir uns in den Anfängen des „Zeitalters der Inferenz“ befinden, was zu einem deutlichen Anstieg der generierten und verbrauchten Rechenressourcen führen dürfte.
Die jüngsten Entwicklungen im gesamten KI-Spektrum bestärken uns in unserer positiven Einschätzung dieses Bereichs, insbesondere an der Schnittstelle zwischen Recheninfrastruktur und neuen agentischen Anwendungen.
Techniken nach dem Training – insbesondere das verstärkende Lernen mit überprüfbaren Belohnungen – haben die Leistungsfähigkeit der Modelle erheblich verbessert. Transformer-Modelle beschränken sich nicht mehr nur auf die Mustererkennung; sie zeigen zunehmend Fähigkeiten wie logisches Denken, Iteration und Selbstkorrektur.
Star Entwicklung
GitHub-Stars geben die Anzahl der Nutzer an, die dieses Repository auf GitHub mit einem Stern markiert haben – OpenClaw (rote Linie) hat innerhalb von drei Monaten die Repositorys von Linux und Python überholt.
Quelle: https://medium.com/data-science-collective/what-are-clawdbot-moltbot-and-openclaw-7cc9faaae6c3
Dieser Schritt nach vorne schlägt sich nun in greifbarem Nutzen nieder
Um die Jahreswende herum haben Programmierwerkzeuge einen Stand erreicht, bei dem Entwickler in manchen Fällen vollständig von KI generierten Code ausliefern können. Noch wichtiger ist, dass die Veröffentlichung von Tools wie OpenClaw1 und Claude CoWork im Februar einen Übergang von passiven Copiloten zu zunehmend autonomen Agenten markiert. Diese Systeme sind in der Lage, komplexe, mehrstufige Aufgaben unter begrenzter Aufsicht über längere Zeiträume (10–20 Minuten) auszuführen, wobei weitere Verbesserungen erwartet werden, sobald neue Modelle – trainiert auf deutlich größeren und leistungsfähigeren GPU-Clustern – online gehen.
Ein entscheidender Faktor ist das wachsende Ökosystem aus Model Context Protocols (MCPs) und APIs, das es Agenten ermöglicht, mit Anwendungen und Datenquellen von Drittanbietern zu interagieren. Agenten können nun auf proprietäre Datenbanken zugreifen, im Internet surfen, Code schreiben und ausführen sowie in Unternehmensanwendungen wie Excel oder Slack arbeiten. Gleichzeitig werden Benutzeroberflächen weiterentwickelt und um strukturierte Sicherheitsvorkehrungen erweitert, sodass Nutzer Berechtigungen und Genehmigungsschritte innerhalb der Arbeitsabläufe der Agenten festlegen können.
Gleichzeitig bleibt das Verhältnis von Angebot und Nachfrage bei der KI-Infrastruktur angespannt. Die Kapazitäten der Hyperscaler sind weiterhin praktisch ausverkauft, und erste Anzeichen für die Einführung in Unternehmen – durch Effizienzsteigerungsmaßnahmen bei Firmen wie Amazon, Meta und Block – deuten darauf hin, dass die Nachfrage wahrscheinlich anhalten wird. Gleichzeitig entwickelt sich der KI-Stack weiterhin in einem Tempo, das das Moore’sche Gesetz deutlich übertrifft, was zu schrittweisen Verbesserungen sowohl bei der Trainings- als auch bei der Inferenz-Effizienz führt.
Citrini Research geht davon aus, dass die Gewinner des Zeitalters der agentischen KI „Agentic Utilities“ sein werden: Unternehmen, die die Infrastruktur zur Unterstützung des Agent-Verkehrs aufbauen; das Ökosystem von Diensten, die speziell für die Interaktion mit Agenten entwickelt wurden (z. B. agentische Zahlungswege); sowie neue Governance-Lösungen (z. B. Observability- und Counter-AI-Tools), um unkontrollierte Agenten in Schach zu halten.
- Infrastruktur: Der Wandel: Übergang von menschenzentrierter Bandbreite zu einem „Boom im agentenbasierten Verkehr“.
- Die neue Kategorie: B2A (Business-to-Agent). Dienste, die speziell für KI-Nutzer entwickelt wurden.
- Governance: Das Risiko: betrügerische Agenten und Systemverletzungen. KI ist derzeit „so dumm wie nie zuvor“.
Quelle: CitriniResearch.
Erkenntnisse der Konferenz (MS TMT, San Francisco)
Die Diskussionen auf der MS TMT-Konferenz bestätigten diese Trends weiter, insbesondere hinsichtlich des Aufkommens agentischer Workflows und ihrer Auswirkungen auf den Rechenbedarf. Nvidia-CEO Jensen Huang hob OpenClaw als entscheidende Entwicklung hervor und unterstrich dessen rasche Verbreitung sowie dessen Rolle dabei, Agenten die direkte Interaktion mit lokalen Systemen und Anwendungen zu interagieren. Dies stellt einen bedeutenden Schritt in Richtung vollständig agentischer Umgebungen dar, in denen Softwaresysteme mit minimalem menschlichem Eingriff agieren, kommunizieren und koordinieren können.
Die derzeitige Nutzung konzentriert sich nach wie vor auf individuelle Experimente, was zum Teil auf begrenzte Sicherheitsvorkehrungen und die damit verbundenen Risiken zurückzuführen ist. Anekdotischen Berichten zufolge hat dies sogar dazu geführt, dass vermehrt Zweitgeräte angeschafft wurden, um die Aktivitäten der Agenten in einer Sandbox zu testen. Diese Phase ist jedoch wichtig: Sie zeigt sowohl die Machbarkeit der Interaktion zwischen Agenten als auch die im Vergleich zu menschengeführten Arbeitsabläufen deutlich höhere Token-Intensität, die mit der autonomen Ausführung einhergeht. Daher werden agentengesteuerte Workflows dazu führen, dass das Volumen der verbrauchten Token im Vergleich zu den aktuellen Nutzungsmustern in Unternehmen (z. B. Copilot, ChatGPT, Claude, Gemini) exponentiell ansteigt. Diese Vision steht im Einklang mit den Äußerungen von OpenAI-CEO Sam Altman, der einen Wandel von reaktiven Systemen hin zu hochgradig proaktiven Modellen hervorhob. In dem Maße, wie Modelle einen beständigen Kontext und einen umfassenderen Einblick in die Benutzerumgebungen gewinnen, beginnt ihre Fähigkeit, nächste Schritte zu antizipieren und darauf zu reagieren, menschenähnlichem Denken zu ähneln.
1 Github-Stars stehen für die Anzahl der Nutzer, die dieses Repository auf GitHub mit einem Stern markieren – OpenClaw (blaue Linie) überholte innerhalb von 3 Monaten die Repositorys von Linux und Python. Quelle: https://medium.com/data-science-collective/what-are-clawdbot-moltbot-and-openclaw-7cc9faaae6c3