KI-Trends 2025: Immer in Bewegung


inpeek Blog


Fabian Hüni

Die Welt der Künstlichen Intelligenz entwickelt sich rasant – alle, die am Ball bleiben wollen, sollten die wichtigsten Entwicklungen im Blick haben. Neue Tools, Modelle und Protokolle erscheinen fast täglich. Dieser Beitrag zeigt kompakt und praxisnah, welche KI-Trends 2025 unserer Einschätzung und Beobachtung nach besonders relevant sind. Und wie Sie sich darauf vorbereiten und davon profitieren können.

Agentic AI – KI, die wirklich handelt

Von reaktiven Chatbots zu aktiven Entscheidungsträgern: Agentic AI verändert die Spielregeln und ist zweifellos der aktuell grösste Trend in der KI-Welt. Erstmals wird es damit möglich, Unternehmensprozesse nicht nur zu analysieren oder zu unterstützen, sondern autonom zu steuern – über rein deterministische Methoden hinaus. Dazu werden die LLM mit Tools ausgestattet, die einzelne Aktionen wie zum Beispiel eine Berechnung anstellen, das aktuelle Wetter abrufen oder den Versand einer Rechnung im ERP System auslösen. Die LLM interpretieren dabei Daten und entscheiden selbständig, welche Tools sie aufrufen, um die nötigen Informationen zu erhalten sowie Aktionen auszuführen.

Was sind Agents? Agents sind KI-Systeme, die:

  • eigenständig Entscheidungen treffen,
  • aktiv mit Systemen interagieren und
  • mehrere Aktionen intelligent kombinieren, um ein Ziel zu erreichen.

Praxisbeispiel: Ein intelligenter Agent im Kundensupport versteht ein Ticket, stösst eine Aktion im ERP-System an (z.B. Rechnungsversand) und informiert den Kunden – völlig autonom.

Wichtige Entwicklungen:

  • Definiert einen Standard zur Interaktion mit Umsystemen  (z.B. ERP, Wetter API) durch LLMs
  •  Agent2Agent Protocol: Definiert die Zusammenarbeit zwischen zwei KI-Agents
  • Assistenten: z.B. Microsoft Copilot, SAP Joule

Prognose: Agentic AI wird Prozesse tiefgreifend automatisieren und menschliche Aufsicht auf ein neues Niveau heben. Erste Use Cases werden momentan evaluiert und gehen noch im Jahr 2025 in Produktion. Für Unternehmen bedeutet das hohes Potential, um Zeit und dadurch Kosten einzusparen. Die grossen Anbieter wie Microsoft oder SAP lancieren Agents (z.B. SAP Joule Agents), die in ihren Tools integriert sind und die Business Prozesse nachhaltig verändern bzw. beschleunigen sollen. Für eigene Entwicklungen wird sich vermehrt die Frage stellen, ob und wie KI Agents mit der Software interagieren können. Hierzu wird das MCP (Model Context Protocol) neue Möglichkeiten eröffnen. Und falls eigene Agents gebaut werden, können diese mittels dem Agent2Agent Protokoll in bestehende Copiloten wie SAP Joule oder Microsoft Copilot integriert werden, damit die Benutzenden weiterhin die bereits etablierten Chatbots nutzen können.

Inference Time Compute – Mehr Zeit, bessere Antworten

Künstliche Intelligenz wird leistungsfähiger, nicht nur durch grössere Modelle, sondern auch durch intelligenteres «Denken». Traditionell wurden Modelle optimiert, indem man sie mit mehr Daten, mehr Parametern oder mehr Trainingsressourcen (GPU/TPU) versorgte. Jetzt rückt ein neuer Ansatz in den Vordergrund: Mehr Rechenzeit während der Antwortgenerierung («Inference Time»).

Was bedeutet das? 
Modelle erhalten bewusst mehr «Denkzeit». Mehrere Denk- und Revisionsschritte verbessern die Qualität der Antworten, insbesondere bei komplexeren Aufgaben, bei denen logisches Denken gefordert ist wie z.B. in der Mathematik. Das steigert die Performance, erhöht allerdings auch die Kosten und vergrössert die Zeit, bis eine Antwort verfügbar ist (Latenz). Ein Beispiel: Die Deep Research Agents der grossen Anbieter sind nicht aufgrund von anderem Training so stark, sondern vielmehr, weil sie mehrere Minuten oder gar Stunden Zeit erhalten, um verschiedene Quellen zu evaluieren und anschliessend die besten für eine finale Antwort zu verwenden.

Empfehlung: Unternehmen profitieren von der verbesserten Antwortqualität aufgrund der Inference-Time compute. Dies erhöht jedoch auch die Kosten, und nicht in jedem Fall ist der Einsatz von mehr «Denkzeit» notwendig. Eine fundierte Abwägung zwischen Performance und Kosten sollte in jedem Fall erfolgen. Deep Research Agents ermöglichen das Erstellen von Reports wie z.B. eine Marktanalyse oder ein Strategiepaper in deutlich kürzerer Zeit. Selbstverständlich sollte solchen Analysen nicht blind vertraut werden, die Resultate bieten jedoch eine erste fundierte Grundlage für eine weitere Ausarbeitung.

Sehr grosse und sehr kleine Modelle – zwei Extreme stehen hoch im Kurs

Die Zukunft gehört nicht nur den Giganten: Kleine, spezialisierte Modelle bieten neue Chancen. Während weiterhin extrem grosse Modelle entwickelt werden, etablieren sich parallel immer mehr sogenannte smolLLMs (für Text) und smolVLMs (für Vision). Diese Modelle fokussieren sich bewusst auf weniger Parameter und können daher je nach Grösse auch direkt auf Smartphones, Laptops oder im Browser on-device betrieben werden.

Vorteile kleiner Modelle: 

  • Ausreichende Leistung für viele Aufgaben (z.B. Objekterkennung in einem Bild, Zusammenfassung von einem Text)
  • Direkt auf Laptops, Smartphones oder im Browser nutzbar
  • Keine Inference-Server notwendig
  • Datenschutzfreundlich: Daten bleiben lokal

Neue Trends daraus: 

  • WebML: KI-Anwendungen im Browser
  • On-Device AI: Mobile KI-Apps, auch offline einsetzbar

Erkenntnis: Kleine KI-Modelle ermöglichen flexible, sichere und datenschutzfreundliche Anwendungen und sind damit ideal für neue App-Generationen. Diese Entwicklung bringt KI direkt in den Browser oder in eine Mobile App, ohne dass die Daten jemals das Gerät verlassen oder eine Internetverbindung notwendig ist. Die Möglichkeiten solcher Anwendungen betrachten wir als enorm, gehen jedoch davon aus, dass noch einige Monate vergehen werden, bis erste Umsetzungen in diesem Bereich erfolgen – unter anderem auch, weil der Fokus aktuell mehr auf KI Agents liegt. Dennoch sehen wir hier grosses Potential!

Mensch-Software-Interaktion – Interfaces werden (fast) überflüssig

Die Art, wie wir mit Software interagieren, wird sich grundlegend verändern. Grosse Sprachmodelle (LLMs) eröffnen eine neue Ära der Softwarebedienung: Künftig wird natürliche Sprache klassische textbasierte User Interfaces (UIs) zunehmend verdrängen.

Was bedeutet das für Unternehmen?

  • Applikationen sollten frühzeitig so entwickelt werden, dass sie auch durch LLMs verwendet werden können.
  • Parallel entstehen Systeme, die autonom Desktop- oder Webanwendungen über das bestehende UI bedienen. Dies geschieht auf Basis von Vision LLM, die Screenshots interpretieren und anschliessend die nächste Aktion (z.B. Mausklick) vorhersagen und ausführen.

Praxisbeispiel: In unserem Immobilienportal Kibanda könnten Nutzende in Zukunft Räume einfach per Chat oder Sprachbefehl reservieren – anstatt mit Klicks durch Menüs zu navigieren. Dabei werden nicht neue Funktionalitäten erstellt, sondern vielmehr die bestehenden APIs «AI-ready» gemacht, so dass LLMs mit der Software interagieren können.

Empfehlung: Denken Sie Interfaces neu und bauen Sie Ihre Anwendungen mit Blick auf KI-Integration und Sprachinteraktion. Analog dazu, dass bisher Search Engine Optimizing (SEO) bei Webseiten betrieben wurde, gehen wir davon aus, dass Applikationen und Webseiten in Zukunft auch für KI Systeme optimiert werden. Dies wird unserer Erwartung nach auf Basis des MCP und Agent2Agent Protokolls erfolgen.

Datenschutz, Regulierungen und ethische KI – Vertrauen wird zum Wettbewerbsvorteil

Technologische Souveränität, Datenschutz und Ethik rücken ins Zentrum der KI-Debatte. Angesichts der Dominanz US-amerikanischer Anbieter werden Datenschutz, Compliance und Transparenz für europäische Unternehmen immer wichtiger.

Bedeutsame Entwicklungen: 

  • Höhere Anforderungen an die Datenverarbeitung (Standort, Schutz, Kontrolle)
  • Proprietäre Modelle vs. Open Source Lösungen
  • Verschärfte Regulierungen in der EU und Schweiz
  • Ethische KI wird Pflicht: Vermeidung von Diskriminierung und Bias

Erkenntnis: Vertrauen ist nicht mehr «Nice-to-have», sondern ein zentrales Differenzierungsmerkmal beim Einsatz von KI. Unternehmen  werden sich Fragen stellen müssen wie: «Wo liegen die Daten und welchem AI-API Anbieter vertrauen wir? Setzen wir auf Proprietäre Modelle (z.B. von OpenAI/ChatGPT) oder fokussieren wir uns auf Open Source Lösungen?», dafür sollten klare Strategien zugrundeliegen.

Unser Fazit: 2025 wird das Jahr der Agenten

Die hier vorgestellten Trends geben einen ersten Einblick, welche Themen wir alle im Jahr 2025 auch weiterhin besonders im Blick behalten sollten. Auch wenn sich «AI Agents» gut für ein Buzzword Bingo eignet, dürfte sich dieser Trend festsetzen und Unternehmen in diesem Jahr stark beschäftigen. Viele der weiteren Trends sind indirekt oder direkt auch mit AI Agents verbunden.

Unsere Einschätzung dazu:

  • Agentic AI wird Unternehmensprozesse grundlegend verändern.
  • Repetitive Aufgaben werden zunehmend von KI-Agenten übernommen.
  • Die Mensch-Software-Interaktion wird natürlicher und intuitiver.
  • Bei der Softwareentwicklung wird die Frage «Wie interagiert KI mit unserer Software?» neu aufkommen.
  • Governance und Ethik werden als Erfolgsfaktoren entscheidend sein.

SIE MÖCHTEN MEHR ERFAHREN?

FABIAN HÜNI

AI Engineer & Senior Development Consultant

Kontakt aufnehmen

Bei inpeek beschäftigen wir uns täglich mit den neuesten Technologien und begleiten Unternehmen bei der Integration von KI-Lösungen. Sie möchten erste Use Cases evaluieren? Ihre Applikationen für die Zukunft der Interaktion rüsten? Oder Ihre Datenstrategie auf neue Anforderungen anpassen? Sprechen Sie uns an!

Privacy Preference Center