Human-Centred AI

Warum der Mensch im Zentrum jeder KI-Strategie stehen muss


Künstliche Intelligenz gilt als einer der zentralen Treiber der digitalen Transformation. Sie wird als Hebel für Produktivitätssteigerungen gefeiert, als Schlüssel im Kampf gegen den Fachkräftemangel und als Antwort auf die wachsende Komplexität moderner Märkte. Doch die Realität in Unternehmen zeigt ein anderes Bild: Laut einer IDC-Studie in Zusammenarbeit mit Lenovo, veröffentlicht im März 2025, schaffen es 88 % der beobachteten KI-Pilotprojekte nicht in den produktiven Einsatz. Ein enormes Risiko für Unternehmen, die dadurch Zeit, Budget und Marktchancen verlieren.

Der Grund liegt selten in fehlender Technologie. Viel häufiger fehlt der Bezug zu den Menschen, die mit ihr arbeiten sollen. Human-Centred AI setzt genau hier an. Sie richtet den Blick nicht auf Systeme und Schnittstellen, sondern auf die Mitarbeitenden, Kunden und Partner. Es geht darum, technische Lösungen so zu gestalten, dass sie an den Bedürfnissen von Menschen ansetzen. Künstliche Intelligenz kann nur erfolgreich sein, wenn sie relevante Herausforderungen löst, Akzeptanz findet und einen echten Mehrwert schafft.

Was Human-Centred AI ausmacht

Human-Centred AI ist ein Ansatz, der Unternehmen hilft, aus Pilotprojekten echte Ergebnisse zu erzielen. Im Kern geht es nicht darum, Menschen zu ersetzen, sondern sie zu unterstützen und zu entlasten.

Human-Centred AI bedeutet, Technologie so einzusetzen, dass sie Menschen befähigt. Sie ersetzt keine Expertise, sondern gibt Teams den Freiraum, ihr Wissen, ihre Kreativität und ihre Verantwortung voll wahrzunehmen.

Drei Prinzipien stehen dabei im Vordergrund:

  1. Verstehen: durch Research und Testing erfassen, wie Menschen arbeiten, welche Hürden sie erleben und was sie von KI erwarten.
  2. Vertrauen: durch Transparenz, Nachvollziehbarkeit und die Gewissheit, dass rechtliche und organisatorische Leitplanken eingehalten werden.
  3. Unterstützen: monotone Aufgaben automatisieren, damit Zeit für kreative und wertschöpfende Tätigkeiten frei wird.

So verändert sich auch die Rolle von KI. Sie wird nicht mehr als “Black Box” verstanden, sondern als Partner, der repetitive Aufgaben übernimmt und Menschen Raum für hochspezialisierte Tätigkeiten gibt. In Zeiten von Fachkräftemangel ist das entscheidend: KI kann Teams entlasten, Abteilungen stabilisieren und Organisationen widerstandsfähiger machen.

Agentenbasierte KI: Autonom, aber nicht unbegrenzt

Ein besonderer Treiber dieser Entwicklung ist agentenbasierte KI. Diese Systeme können komplexe Arbeitsabläufe eigenständig koordinieren: Dokumente anreichern, Datenquellen prüfen, Inhalte personalisieren oder ganze Prozesse im Hintergrund orchestrieren. Damit verschiebt sich die Rolle der KI: weg von reinen Assistenzsystemen hin zu autonomen Agenten.

Doch Autonomie bringt Verantwortung mit sich. Je selbstständiger ein Agent agiert, desto wichtiger sind klare Leitplanken. Unternehmen müssen sich fragen: Wie viel Autonomie darf KI im Unternehmen haben? Und: Wer trägt letztlich die Verantwortung für ihre Entscheidungen?

Hier setzt das Prinzip Governance by Design an. Regeln, Transparenz und Kontrollmöglichkeiten sind nicht nachträgliche Add-ons, sondern von Anfang an integraler Bestandteil jeder Lösung. Auf diese Weise bleibt die Balance gewahrt. Innovation wird gefördert, ohne Risiken für Unternehmen oder Gesellschaft heraufzubeschwören.

Compliance als Kern von Human-Centred AI

Compliance ist kein Gegensatz zu Innovation, sondern deren Fundament, gerade im Umgang mit generativer KI und agentenbasierten Systemen. Unternehmen erwarten vor allem Verlässlichkeit. Dabei stehen sie vor zentralen Herausforderungen:

  • Datenqualität: Verzerrte oder unvollständige Daten führen zu falschen Ergebnissen
  • Transparenz: Undurchsichtige Entscheidungen erzeugen Unsicherheit und Skepsis
  • Rechtskonformität: Verstöße gegen Datenschutz oder branchenspezifische Regularien gefährden ganze Geschäftsmodelle

Human-Centred AI begegnet diesen Risiken mit Governance by Design. Autonomie ja – aber nur innerhalb klarer Leitplanken: Verantwortlichkeiten sind festgelegt, Kontrollprozesse fest verankert. So lassen sich KI-Systeme sicher und compliant einsetzen, ohne ihre Innovationskraft einzuschränken. Vertrauen entsteht nicht trotz dieser Strukturen, sondern gerade durch sie.

Praxisbeispiel: Siemens und Groundfog

Wie dieser Ansatz in der Praxis umgesetzt werden kann, zeigt Siemens. Über Jahre war die Corporate Website des Unternehmens zu einer komplexen Plattform mit tausenden Seiten angewachsen. Nutzer berichteten in Befragungen, dass sie häufig lange suchen mussten, sich durch Marketinginhalte kämpften und relevante technische Informationen kaum fanden. Der zentrale Schmerzpunkt: Inhalte waren schwer zugänglich. Gemeinsam mit Groundfog entwickelte Siemens eine AI-powered Search, die auf agentenbasierter KI basiert.

Mehrere spezialisierte Agenten übernehmen klar definierte Rollen:

  • Retriever Agenten identifizieren relevante Inhalte und verstehen semantische Zusammenhänge.
  • Guardian Agenten prüfen Ausgaben auf Compliance, Policies und Corporate Voice, besonders bei sensiblen Themen wie Exportkontrolle oder Quartalsergebnissen.
  • Summarizer Agenten fassen komplexe Inhalte zusammen, personalisieren sie und machen sie leichter zugänglich.

Dieses Multi-Agenten-Setup wird ergänzt durch systematisches Monitoring: Mehr als 10.000 Suchanfragen werden regelmäßig getestet, um Risiken frühzeitig zu erkennen. Ein zusätzlicher MCP-Server (Model Context Protocol), der als technische Schutzschicht fungiert, dient als Sicherheitsventil zwischen dem Large Language Model und den Siemens-Inhalten. Er entscheidet, welche Daten freigegeben werden, wie sie strukturiert sind und in welchem Kontext sie erscheinen.

Damit endet Compliance nicht an den Unternehmensgrenzen. Nutzer verlassen sich zunehmend auf Antworten externer GenAI Systeme. Genau hier setzt Generative Engine Optimization (GEO) an. Inhalte werden so strukturiert, dass sie in generativen Antworten korrekt, aktuell und nutzerorientiert erscheinen. GEO bedeutet nicht Sichtbarkeit um ihrer selbst willen, sondern Verlässlichkeit für den Nutzer. Es stellt sicher, dass Informationen überall konsistent, vertrauenswürdig und verständlich bleiben.

Unternehmen tragen Verantwortung dafür, welche Informationen KI-Systeme nutzen und wie diese dargestellt werden. Kontrolle schafft Sicherheit, und Sicherheit schafft Vertrauen.

Das Siemens-Beispiel zeigt eindrücklich, dass Human-Centred AI dann erfolgreich ist, wenn der Mensch konsequent im Mittelpunkt steht. Es beweist, dass KI-Projekte Wirkung entfalten können, wenn sie die richtigen Schwerpunkte setzen und nicht an den Bedürfnissen der Nutzer vorbeigehen. Wer tiefer in die Umsetzung und technischen Hintergründe des Projekts eintauchen möchte, findet weitere Einblicke in der gemeinsamen Masterclass von Siemens und Groundfog ‚Human Centred AI in der Praxis‘.

Agentenbasierte KI im Praxiseinsatz

Der Nutzen von agentenbasierte KI zeigt sich in vielen Industrien:

  • Gesundheitswesen: Agenten führen Daten aus Patientenakten zusammen, markieren auffällige Muster und unterstützen Ärzte bei Entscheidungen, ohne deren Expertise zu ersetzen.
  • Finanzsektor: Banken nutzen Agenten, um Dokumentenprüfungen zu automatisieren. Compliance-Agenten sichern regulatorische Vorgaben ab und Analysten gewinnen Zeit für Bewertungen.
  • Marketing: Content-Teams arbeiten unter wachsendem Druck durch SEO, Kampagnen und Analysen. Agenten übernehmen Routinen, strukturieren Inhalte und sorgen für Konsistenz. Das Ergebnis: mehr Raum für Storytelling, bessere Kundenerlebnisse und klare Kommunikation.
  • Öffentlicher Sektor: Laut McKinsey fehlen in deutschen Verwaltungen bereits heute über 500.000 Vollzeitkräfte. Bis 2030 könnten es mehr als 800.000 sein. KI-Agenten können Routineaufgaben übernehmen, Anträge vorbereiten und Informationen bereitstellen. Studien zufolge lässt sich so der Bedarf an Vollzeitstellen um bis zu 50 Prozent reduzieren, ohne Personalabbau, sondern durch Entlastung.

Zukunft gestalten mit Human-Centred AI

Die nächste Entwicklungsstufe der Digitalisierung wird nicht von Technologie allein geprägt, sondern davon, wie wir sie einsetzen. KI-Agenten haben das Potenzial, Arbeitsabläufe effizienter zu gestalten, Engpässe bei Fachkräften zu entschärfen und Nutzererlebnisse spürbar zu verbessern. Gleichzeitig erfordern sie Verantwortung: Nur mit klaren Regeln und Kontrolle lassen sich Risiken beherrschen und Vertrauen sichern.

Sie übernehmen Routineaufgaben, doch ihr größter Wert entsteht erst dann, wenn sie den Menschen Raum verschaffen für das, was nur er leisten kann: strategisches Denken, kreative Lösungen und verantwortungsvolles Handeln. Human-Centred AI zeigt, dass es dabei nicht um die Ablösung menschlicher Arbeit geht, sondern um ihre Weiterentwicklung. Menschen werden zu Gestaltern und Entscheidern, die digitale Agenten steuern, kontrollieren und optimieren. So entsteht ein neues Zusammenspiel: Technologie als zuverlässiger Partner, der befähigt, nicht ersetzt. Der Wettbewerbsvorteil von morgen entsteht dort, wo KI nicht nur effizient arbeitet, sondern verstanden, gesteuert und verantwortungsvoll eingesetzt wird. Human-Centred AI zeigt: Nachhaltiger Fortschritt ist nur möglich, wenn Technologie das Potenzial des Menschen erweitert – und ihn nicht ersetzt. Unternehmen, die jetzt handeln, sichern sich nicht nur Effizienz und resilientere Teams, sondern auch den entscheidenden Wettbewerbsvorsprung.

Autor: Martin Lehmann ist CTO und Mitgründer von Groundfog
Er verfügt über langjährige Erfahrung in der Entwicklung cloudbasierter Unternehmenslösungen und KI-Systeme. Sein Ziel ist es, innovative KI-Architekturen nicht nur technisch möglich zu machen, sondern so zu gestalten, dass sie Unternehmen echten, messbaren Mehrwert und nachhaltigen Fortschritt bringen.