Graphtechnologien und Erfolgsfaktoren

Vom Hype zur Realität: Was KI 2025 leisten muss

Trends, 2025, ki trends 2025, ki 2025, künstliche intelligenz 2025, KI, künstliche Intelligenz

Die Entwicklung der Künstlichen Intelligenz (KI) schreitet unaufhaltsam voran und wandelt sich zunehmend vom Experiment zur praktischen Anwendung. Für 2025 ergeben sich zwei zentrale Fragen: Welche KI-Lösungen funktionieren in der Praxis, und wo lohnt sich deren Einsatz?

Während einige bereits an der nächsten KI-Revolution arbeiten, kämpfen andere Unternehmen noch mit der Integration. Experten von Neo4j, einem Anbieter von Graphdatenbanken, beleuchten neue KI-Ansätze, die Rolle von Graphtechnologien und zukünftige Erfolgsfaktoren.

Anzeige

1. KI-Adoption zwischen Vision und Realität

KI scheint oft wie ein riskantes Experiment mit ungewissem Ausgang. Dennoch sind die Investitionen auch 2024 weiter gestiegen: Cloud-Anbieter erweitern ihre Rechenzentren, KI-Anbieter verbessern Modelle, und Superchip-Hersteller Nvidia eilt von einem Rekord zum nächsten. Im Arbeitsalltag ist Generative AI (GenAI) bereits weit verbreitet – Entwickler nutzen sie routinemäßig. In Deutschland greifen sogar 49 % der Arbeitnehmer trotz möglicher Verbote weiterhin auf KI-Lösungen wie ChatGPT zurück.

Gleichzeitig bleibt die Integration von KI in Unternehmen eine Herausforderung, insbesondere in Europa. Regulatorische Unsicherheiten, fehlende Strategien und unklare Anwendungsfälle bremsen den Fortschritt. Obwohl die Ausgaben für KI steigen, bleibt der erwartete Nutzen oft aus.

Der Hype um GenAI ist laut Gartner Hype Cycle bereits im Abflachen, und 2025 muss sich zeigen, ob diese Technologie ihre Versprechen halten kann.

Anzeige

2. Agentic AI: Die neuen Workflow-Agenten

Während viele Unternehmen noch an der Umsetzung bestehender KI arbeiten, gehen die Entwicklungen weiter. 2023 plauderten Anwender mit Chatbots. 2024 übernehmen KI-Agenten gleich komplette Workflows und Routineaufgaben. Diese „Agentic AI“ nutzt Werkzeuge wie Datenbanken, Schnittstellen oder Service-Integrationen.

Die agentenbasierte KI verfügt über „Chaining“-Fähigkeit und kann so eine Abfrage in einzelne Schritte aufteilen und sie der Reihe nach und zudem iterativ abarbeiten. Dabei agiert sie dynamisch, plant und ändert Aktionen kontextbedingt und delegiert Teilaufgaben an diverse Tools.

Agentic AI ist nicht neu. Im nächsten Jahr könnte die KI jedoch eine ähnliche Erfolgsstory wie GenAI hinlegen.

Anthropic präsentierte im Herbst KI-Agenten in Claude, die den Computer nahezu wie ein Mensch bedienen und dabei eigenständig tippen, klicken und im Internet recherchieren können. Auch Microsoft arbeitet an eigenen Agenten, die künftig Aufgaben in Bereichen wie Vertrieb, Kundensupport und Buchhaltung übernehmen sollen.

Das Outsourcen von Routineaufgaben an KI wirkt zwar verlockend, wirft aber auch Bedenken auf. Wie können die Agenten kontrolliert und im Notfall gestoppt werden? Wer trägt die Verantwortung, wenn etwas schiefläuft? Einen Chatbot um Vorschläge für eine E-Mail zu bitten, ist das eine – aber eine ganz andere Sache, wenn die KI eine Nachricht eigenmächtig an einen Geschäftspartner verfasst und verschickt.

Hinzu kommt, dass die Agenten Fehler machen oder sich sogar ablenken lassen können. In einer Demo legte Anthropics Claude beispielsweise plötzlich eine Pause ein und begann, im Internet nach Bildern des Yellowstone-Nationalparks zu suchen. Es bedarf klarer Kriterien, um die korrekte Ausführung zu überprüfen und angemessen auf Fehler zu reagieren.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

3. Reasoning AI: Mehr Qualität durch „Nachdenken“

Reasoning AI ist ebenfalls nicht neu, aber äußerst interessant. Ähnlich wie bei GenAI generieren Large Language Models (LLMs) hier Antworten, nehmen sich jedoch spürbar mehr Zeit, um über die gestellte Frage quasi „laut nachzudenken“. Die Modelle wägen Optionen ab, entwerfen Lösungen und verwerfen diese wieder, bevor sie einen Vorschlag präsentieren.

Dieser Prozess dauert zwar länger, sorgt aber für eine deutlich höhere Qualität der Ergebnisse. OpenAIs KI-Modell o1 erreichte mit diesen logisch ausgelegten, mathematischen Fähigkeiten sogar die Top 500 der US-Mathematik-Olympiade (AIME).

Allerdings bringt Reasoning AI auch Herausforderungen mit sich: Der „Denkprozess“ (Chain of Thought) bleibt innerhalb des LLM verborgen und ist von außen nicht nachvollziehbar. Das „laute Nachdenken“ der KI geschieht somit tatsächlich im Verborgenen, was die Vertrauenswürdigkeit beeinträchtigt. Zudem machen die längere Laufzeit und die höheren Kosten diese Technologie eher für individuelle Forschungsprojekte geeignet als für Endanwender.

4. Artificial General Intelligence (AGI): Noch Zukunftsmusik

Während sich Agentic AI und Reasoning AI bereits in der Realität wiederfinden, bleibt Artificial General Intelligence (AGI) zumindest vorerst Science-Fiction. Es ist noch ein langer und größtenteils hypothetischer Weg, bis Künstliche Intelligenz mit der generischen menschlichen Intelligenz gleichzieht oder sie sogar übertrifft. So beeindruckend der KI-Sprung der letzten Jahre erscheint, gibt es immer noch sehr einfache Aufgaben, bei denen die KI dramatisch versagt (z. B. Scrollen und Drag-Drop-Funktionen).

Zudem ist ungewiss, ob der aktuelle Entwicklungsweg der KI überhaupt zu AGI führen wird – und vielleicht noch wichtiger, ob eine solche generelle höhere Intelligenz tatsächlich notwendig oder gewünscht ist. In den meisten Fällen dürfte der Fokus vielmehr auf der Spezialisierung der KI liegen.

5. Small Language Models (SLM): Effiziente Alternativen

Statt Science-Fiction wird es im Jahr 2025 für Unternehmen vornehmlich darum gehen, bestehende KI-Technologien effektiv in der Praxis zu nutzen. Dabei ist die Integration nicht nur eine Frage von Compliance und Expertise, sondern auch der Kosten. Sobald KI in großem Maßstab genutzt wird, ist sie – ähnlich wie die Cloud – alles andere als günstig.

Auf öffentlich verfügbaren Daten trainierte LLMs bieten zudem wenig Möglichkeiten, sich von anderen Anwendern und Wettbewerbern abzuheben. Deshalb fokussieren sich Unternehmen zunehmend auf vertikale KIs, die gezielt auf individuelle Use Cases und Bedürfnisse zugeschnitten sind und kontinuierlich verfeinert, optimiert und angepasst werden (Post Training).

Immer häufiger entscheiden sich Unternehmen für Small Language Models (SLMs) statt Large Language Models. Diese kleineren Modelle können in domänen- und branchenspezifischen Bereichen durchaus mit den Großen konkurrieren. Ihr Vorteil: Sie sind leichter zu kontrollieren und zu validieren (z. B. mithilfe von Knowledge Graphen), ihr Training mit hochqualitativen Daten ist schneller, und sie benötigen weniger als 5 % des Energieverbrauchs von LLMs.

Gerade angesichts des EU Green Deal und ESG-Reportings ist dies für Unternehmen ein wichtiger Aspekt. Zudem können hochwertige synthetische Trainingsdaten, die mit leistungsfähigen LLMs generiert werden, SLMs effizient „anlernen“.

Hunger Michael Neo4j

Michael

Hunger

Head of Product Innovation & Developer Product Strategy

Neo4j

Bildquelle: Neo4j
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.