Advertorial
Artikel aus dem Handelsblatt Journal Banking vom 20.09.2023
Beim Einsatz Künstlicher Intelligenz (KI) sollte es nicht nur darum gehen, was technisch möglich ist. Unternehmen müssen sich ebenfalls Gedanken machen, was ethisch vertretbar ist – die Themen reichen von Fragen der Transparenz über Persönlichkeitsrechte bis zu den ökologischen Folgen der Datennutzung.
Die Fortschritte bei der Entwicklung von algorithmischen Systemen und KI beflügeln die Fantasie: Effizienter, exakter, einfacher, objektiver soll die Arbeit mit Hilfe der smarten Technologien werden. Z. B. im Personal-, im Gesundheitsoder im Finanzwesen, in der Rechtsprechung, beim Bau von Autos oder beim Erstellen von Informationen und Übersetzungen. Wohl das prominenteste Beispiel der jüngsten Zeit: die generative KI ChatGPT, die auf Knopfdruck menschenähnliche Antworten ausspuckt.
Daten haben Macht
Doch bei der Entwicklung und beim Einsatz der „intelligenten“ Systeme ist Umsicht gefragt – denn die Macht, die die Daten haben können, ist groß. Zahlreiche Fälle sogenannter Bias zeigen, wie fehlerhafte, unvollständige oder falsch verarbeitete Datensätze Ergebnisse verzerren und Diskriminierung verstärken können: Da ist zum Beispiel der Chatbot, der nicht mit den Anfragen von Jugendlichen umgehen kann, weil er auf deren Sprache und Ausdrucksweise nicht trainiert wurde. Da ist der Seifenspender, der nur hellhäutigen Menschen Seife spendet, weil sein Sensor auf dunklere Hauttöne nicht reagiert. Da ist die Bewerbungsfiltersoftware, die für ein männlich dominiertes Berufsfeld systematisch Bewerbungen von Frauen aussortiert – nicht, weil die KI so programmiert wurde, sondern weil das lernende System eine in der Gesellschaft vorherrschende Gegebenheit schlicht fortgeschrieben hat.
Unterschiedliche Blickwinkel berücksichtigen
Solchen Verzerrungen vorzubeugen oder Schieflagen in der Datenbasis auszumerzen, sind Herausforderungen, denen sich auch die Entwicklungsteams bei Atruvia gegenüber sehen. Als Digitalisierungspartner der genossenschaftlichen FinanzGruppe entwickeln wir algorithmische Entscheidungssysteme meist mit dem Ziel, Prozesse bei Banken zu automatisieren und zu optimieren. Dass durch eine KI einzelne Gruppen systematisch benachteiligt werden, passiert dabei viel schneller als man denkt.
Um bei der Entwicklung möglichst viele Facetten im Blick zu haben und gute Ergebnisse zu generieren, müssen fachlicher und technischer Input gleichberechtigt zusammenkommen. Für eine ausgewogene Datenbasis sind auch menschliche Intuition und Fingerspitzengefühl nötig. Co-Creation und Co-Innovation sind für den Datenfachmann im Entwicklungsprozess essenziell – ganz im Sinne des genossenschaftlichen Gedankens. Ebenso wichtig: kontinuierliches Feedback und Nachbessern.
Keine magische Black Box
KI ist keine magische Black Box, die man sich fix und fertig in den Keller stellt und die dann alle gewünschten Prozesse automatisiert. Was aus fachlicher Perspektive wünschenswert erscheint, ist aus technischer Sicht oder aufgrund der Menge der verfügbaren Daten nicht immer machbar. Hinzu kommen ethische Fragestellungen, die berücksichtigt werden sollten – allen voran die Frage: Wie weit soll und darf die Entscheidungskompetenz der Maschine reichen?
Mit verschiedenen gesetzlichen Regelungen sollen Grenzen für den Einsatz von KI gezogen werden. Dazu gehören die deutsche Datenschutzgrundverordnung (DSGVO) sowie der AI Act der Europäischen Union, der KI künftig auf europäischer Ebene regulieren soll. Zusätzlich zu diesen rechtlichen Vorgaben ist auch digitale Verantwortung von jedem einzelnen Unternehmen gefragt. Etwa, wenn es darum geht, Transparenz herzustellen, also offenzulegen, wo und warum eine KI etwas entschieden hat, zum Beispiel bei der Kreditvergabe oder im Bewerbungsprozess.
Entscheidungshoheit beim Menschen
Bei Atruvia sind diese Transparenzanforderungen bereits heute erfüllt: Auch wo es „nur“ um unterstützende KI geht, machen wir stets sichtbar, ob Entscheidungen aufgrund von Daten getroffen werden. Damit Mensch und Maschine reibungslos zusammenarbeiten können, muss transparent sein, warum die Maschine wie entschieden hat. Denn nur dann kann der Mensch daran anknüpfen und gegebenenfalls auch anders entscheiden.
Komplette Entscheidungsprozesse an eine KI abzugeben, halten wir nicht für vertretbar. KI soll die Dinge erleichtern. Aber manchmal ist es sinnvoller, einen Schritt zurückzutreten und statt des neuesten Modells eines zu wählen, das etwas mehr manuellen Aufwand erfordert, dafür aber transparent arbeitet und ethische Aspekte berücksichtigt.
Je komplexer, desto ressourcenintensiver
Neben Themen wie Transparenz und Datenschutz denken wir auch an den oft ausgeblendeten Ressourcenverbrauch bei der Nutzung digitaler Daten: Je komplexer das verwendete Modell, desto größer zum Beispiel die Menge an CO2, die durch jede noch so banale Anfrage freigesetzt wird. Auch dieser ökologische Fußabdruck sollte bei der Entwicklung mitgedacht werden. Ein Modell, das etwas weniger komplex ist, liefert unter Umständen ähnliche oder wenig genauere Ergebnisse, verbraucht aber auch weniger Ressourcen. Daher ist eine ausgewogene Betrachtung für jeden Anwendungsfall unabdingbar.