Nutzung und Regulierung von KI – Ein Widerspruch?

Angesichts der rasanten Fortschritte in der Künstlichen Intelligenz (KI) und der damit einhergehenden potenziellen Bedrohungen, wie sie von Technologievisionären wie Steve Wozniak oder Sam Altman artikuliert wurden, steht die EU an einem kritischen Punkt: Wie kann sie die Entwicklung und Anwendung von KI regulieren, um Risiken zu minimieren, und gleichzeitig Innovation fördern? Die Kritiker, die Anfang des Jahres einen Entwicklungs-Stopp forderten, sehen sich in der rasch fortschreitenden technischen Entwicklung und der Lernfähigkeit der KI bestätigt. Die damit verbundenen Chancen sowie Risiken sind für die Menschheit nach wie vor nicht vollends abzusehen. In diesem Kontext ist die auf dem Prinzip der „Responsibility“ basierende KI-Verordnung der EU von besonderer Bedeutung. Doch wo stehen wir aktuell bei ihrer Entwicklung, und inwieweit kann sie dazu beitragen, die befürchteten Gefahren der KI zu bändigen?

Die aktuelle Fassung des AI-Acts wurde im Juni dieses Jahres vom Europaparlament angenommen. Im sogenannten Trilog mit der EU-Kommission und den Mitgliedsstaaten soll der Entwurf noch in diesem Jahr abgestimmt werden, bevor er mit einer Übergangsfrist von 24 Monaten für Unternehmen offiziell in Kraft tritt. Die Verordnung folgt einem risikobasierten Ansatz, der KI-Systeme nach ihrem Gefährdungspotenzial klassifiziert und entsprechende Regulierungsstandards setzt. Hochrisiko-Systeme, wie autonome Fahrzeuge oder Kreditbewertungssysteme, müssen strengere Anforderungen erfüllen. Einerseits kann dieser Ansatz Innovationen fördern, indem er für Hochrisiko-Anwendungen klare Regeln setzt, während er niedrigschwellige Anwendungen wie Chatbots weniger streng reguliert. Andererseits könnte er die Entwicklung komplexer KI-Systeme hemmen, wenn die Regulierung als zu restriktiv empfunden wird. Zudem besteht eine große Herausforderung darin, dass die KI-Verordnung sämtliche Wirtschafts- und Industriezweige erfassen soll. Und auch ihre Leitbildfunktion für nicht direkt regulierte Rechtsbereiche, bspw. das Vertrags-, Haftungs-, Gesellschafts- und Versicherungsrecht ist zu berücksichtigen.

Eine globale Perspektive ist für die Regulierung von KI unerlässlich. Der AI-Act könnte als Blaupause für weltweite Regelungen dienen und so einen internationalen Standard setzen. Ohne eine weltweite Kooperation und Harmonisierung der Regeln könnten einzelne Regionen, die strenge KI-Gesetze einführen, einen Standortnachteil erleiden. Die KI-Industrie ist global vernetzt, und ihre Produkte überschreiten nationale Grenzen mit Leichtigkeit. Daher ist eine internationale Zusammenarbeit notwendig, um die Vorteile der KI zu maximieren und gleichzeitig die Risiken zu minimieren. Die EU steht somit vor der Herausforderung, eine Balance zwischen Schutz und Förderung der KI zu finden und gleichzeitig auf eine weltweite Harmonisierung der Regulierung hinzuarbeiten.