"Der EU AI Act ist kein Compliance-Monster, sondern Leitlinie für verantwortungsvolle KI."

| Minuten Lesezeit

Seit 1. August ist der EU AI Act (oder auch: KI-Verordnung) in Kraft, mit vielen komplexen Anforderungen an Wirtschaft und öffentliche Verwaltung und vielen Fragen zur konkreten Umsetzung. Wir haben bei Thomas Otto nachgefragt. Er ist als Experte bei Sopra Steria Next zuständig für die Themen Künstliche Intelligenz und ESG.

Thomas, es gibt viele Diskussionen über die Kosten, den Aufwand und die Komplexität des EU AI Act. Wo rangiert diese Regulierung im Vergleich zu anderen Vorschriften?

Thomas Otto: Der EU AI Act ist zweifellos eine der umfassendsten und detailliertesten Regulierungen, die wir derzeit haben. Im Vergleich zu anderen Vorschriften, wie der Datenschutz-Grundverordnung (EU-DSGVO), ist der Aufwand für Unternehmen hier noch einmal erheblich größer. Ein Grund dafür ist die notwendige Klassifizierung von KI-Systemen nach Risikokategorien, was eine tiefgehende Analyse und Bewertung erfordert. Beispielsweise müssen Unternehmen, die KI in Bereichen wie Gesichtserkennung oder Medizingeräte einsetzen, sicherstellen, dass sie alle Anforderungen an Hochrisiko-KI-Systeme erfüllen.

Das bedeutet umfassende Dokumentation, Transparenz und Nachvollziehbarkeit der Entscheidungen, die durch diese Systeme getroffen werden. Auch im Bankensektor müssen kreditbasierte KI-Anwendungen vollständig nachvollziehbar und dokumentiert sein, was zusätzlichen Aufwand erfordert.

Allerdings sehe ich den EU AI Act nicht nur als Kostenfaktor, sondern auch als strategische Chance. Wenn Unternehmen frühzeitig investieren und den Act in ihre Prozesse integrieren, können sie langfristig Wettbewerbsvorteile erzielen, indem sie sich als vertrauenswürdige Anbieter positionieren.




Kritiker bezeichnen den EU AI Act als „Compliance-Monster“. Wie lässt sich diese Wahrnehmung einordnen, und wie können Unternehmen den Act in ihre Prozesse integrieren, ohne dabei an Innovationsfähigkeit zu verlieren?

Thomas Otto: Von „Compliance-Monster“ würde ich so nicht sprechen. Zwar setzt der Act hohe Standards, aber er bietet auch klare Leitlinien, die den Unternehmen helfen, sich effizient zu orientieren. Zudem ist es durchaus sinnvoll, Compliance-Anforderungen bereits im Entwicklungsprozess von KI systematisch mitzudenken – also eine „Compliance by Design“-Strategie zu verfolgen. Das minimiert Kosten und Aufwand und ermöglicht es, die Einhaltung der Vorschriften von Anfang an sicherzustellen.

Der Act sieht darüber hinaus Ausnahmeregelungen für Innovation und Forschung vor, sodass Unternehmen flexibel bleiben können. Für Unternehmen, die KI-Systeme entwickeln oder betreiben, ist es entscheidend, diese Anforderungen nicht als Bedrohung, sondern als strategische Chance zu betrachten, um sich auf dem Markt durch transparente und verantwortungsvolle KI-Lösungen abzuheben.

Welche Rolle spielt der EU AI Act im globalen Wettbewerb, insbesondere im Vergleich zu den USA und China?

Thomas Otto: Der EU AI Act  wird sicherlich als Standard in der globalen KI-Regulierung wahrgenommen, und Unternehmen, die in Europa tätig sein wollen, müssen sich daran halten. Das kann sogar ein Wettbewerbsvorteil sein, da europäische Unternehmen, die den Act von Anfang an in ihre Prozesse integrieren, effizienter und wettbewerbsfähiger aufgestellt sein können. Die Herausforderungen für Europa liegen aus meiner Sicht eher in anderen Bereichen, wie der Kapitalbeschaffung und anderen Standortfaktoren, nicht in der Regulierung selbst.



Mehr zum Thema KI-Verordnung: „EU AI Act? Betrifft mich nicht!“ – warum dieser Irrglaube gefährlich ist



Wird der EU AI Act den Start-up-Markt in Europa behindern oder fördern?

Thomas Otto: Der EU AI Act enthält spezielle Ausnahmeregelungen für Start-ups und Inkubatoren, was ihnen erlaubt, in der frühen Entwicklungsphase etwas freier zu agieren. Diese Flexibilität ist wichtig, um Innovationen nicht zu behindern. Wenn ein Start-up jedoch wächst, muss es sich den gleichen Compliance-Anforderungen stellen wie etablierte Unternehmen. Allerdings wird dies dann auch erwartet, wenn die notwendige Größe und Finanzierung erreicht ist. Ich sehe den Act daher eher als eine Möglichkeit, ein solides Fundament für zukünftige Geschäftserfolge zu legen.

Wenn wir uns die Inhalte anschauen: Der EU AI Act fordert eine regelmäßige Risikoanalyse und -bewertung für KI-Systeme. Wie können Unternehmen sicherstellen, dass diese Analysen stets aktuell bleiben?

Thomas Otto: Unternehmen sollten klare interne Richtlinien entwickeln, die festlegen, in welchen Intervallen diese Analysen durchgeführt werden müssen. Wichtig ist es, Monitoring- und Überwachungssysteme zu integrieren, die das Verhalten von KI-Systemen kontinuierlich analysieren und potenzielle Abweichungen frühzeitig erkennen. Neue Daten oder Änderungen im Modell sollten automatisch eine erneute Bewertung auslösen.

Die Zusammenarbeit mit Experten aus verschiedenen Bereichen wie Datenschutz, IT-Sicherheit und Risikomanagement ist ebenfalls unerlässlich, um sicherzustellen, dass alle relevanten Aspekte berücksichtigt werden. Darüber hinaus spielt die Entwicklung einer Kultur der KI-Verantwortung im Unternehmen eine zentrale Rolle. Alle Beteiligten müssen verstehen, was KI ist, wie diese funktioniert und welche Risiken sie mit sich bringt.

Welche Maßnahmen sollten Unternehmen ergreifen, um die Erklärbarkeit und Nachvollziehbarkeit von KI-Entscheidungen, insbesondere in komplexen Systemen, sicherzustellen?

Thomas Otto: Ein wichtiger Aspekt ist die Auswahl der richtigen KI-Modelle. Es ist entscheidend, Modelle zu wählen, die so einfach wie möglich und gleichzeitig so komplex wie nötig sind. In einigen Fällen, wie bei kreditbasierten Entscheidungen im Bankensektor, sind komplexe Modelle wie neuronale Netze nicht geeignet, da die Erklärbarkeit eine gesetzliche Anforderung ist. Hier bieten sich einfacher strukturierte Modelle oder die Modularisierung von KI-Systemen an, bei der komplexe Systeme in kleinere, nachvollziehbare Module unterteilt werden.

Technologien aus dem Bereich der erklärbaren KI wie LIME oder SHAP können dabei helfen, auch komplexe Modelle transparenter zu machen. Darüber hinaus sollten Unternehmen Visualisierungstools und Dashboards einsetzen, die es ermöglichen, Entscheidungen der KI nachvollziehbar darzustellen und verschiedenen Stakeholdern zu vermitteln.

Der EU AI Act erfordert umfassende Dokumentation und Berichtspflichten. Wie können Unternehmen diese Anforderungen effizient in ihre bestehenden Compliance- und Governance-Strukturen integrieren?

Thomas Otto: Es ist ratsam, auf bestehenden Frameworks für vertrauensvolle KI aufzubauen, die bereits klare Leitlinien und Methoden bieten. Diese Frameworks, wie die Ethikleitlinien der EU für vertrauenswürdige KI oder der neue ISO-Standard 42001 zum Management von KI-Systemen, ermöglichen es, die Anforderungen des EU AI Act effizient umzusetzen und den Dokumentationsaufwand zu minimieren. Unternehmen sollten zudem ihre Risikomanagementprozesse erweitern, um KI-spezifische Risiken systematisch zu erfassen. Moderne Compliance- und IT-Tools, die Automatisierungspotenziale nutzen, können dabei helfen, den Aufwand für die Dokumentation zu reduzieren und gleichzeitig sicherzustellen, dass alle Anforderungen erfüllt werden.

Durch GPT-Sprachmodelle wird der Einsatz von Chatbots immer beliebter. Welche Anforderungen stellt der EU AI Act an Unternehmen, die solche Technologien nutzen?

Thomas Otto: Ein zentraler Punkt ist die Transparenz gegenüber den Nutzern. Unternehmen müssen sicherstellen, dass die Nutzer darüber informiert werden, dass sie mit einem Chatbot  interagieren und nicht mit einem Menschen. In der Praxis bedeutet das beispielsweise, dass bei der Nutzung eines Chatbots eine Meldung erscheint, die den Nutzer darüber aufklärt, dass er gerade mit einer KI-basierten Lösung kommuniziert.



Mehr zu den Fallstricken der KI-Transformation: Wenn schlechte Prozesse einen Chatbot des Grauens schaffen




Wie können international agierende Unternehmen sicherstellen, dass ihre KI-Systeme sowohl den EU-spezifischen Vorschriften als auch den Anforderungen anderer Regionen gerecht werden?

Thomas Otto: Hier hilft die Entwicklung einer globalen Compliance-Strategie, die auf den strengsten Regulierungen basiert. Oftmals bietet es sich an, die EU-Vorgaben als Grundlage zu nehmen, da Europa in vielen Bereichen der Regulierung als Vorreiter gilt. Unternehmen sollten ein zentrales Team für die globale Compliance etablieren, das eng mit den jeweiligen regionalen Teams zusammenarbeitet, um sicherzustellen, dass die spezifischen Anforderungen in den verschiedenen Ländern erfüllt werden. Dabei kann KI selbst eine unterstützende Rolle spielen, indem sie bei der Überwachung und Dokumentation der Einhaltung der Vorschriften hilft. Langfristig wird dies nicht nur die Compliance sicherstellen, sondern auch dazu beitragen, dass Unternehmen effizienter und wettbewerbsfähiger werden.

Abschließend: Glaubst du, dass der EU AI Act ein KI-Verhinderer in Europa ist oder eher ein Enabler?

Thomas Otto: Eindeutig ein Enabler. Der Act schafft klare Rahmenbedingungen, die das Vertrauen in KI-Technologien langfristig stärken. Durch die Harmonisierung der Vorschriften erlaubt er Unternehmen, sich durch verantwortungsvolle KI von der Konkurrenz abzuheben. Der Act fördert nicht nur den Schutz der Verbraucher und die Wahrung der Grundrechte, sondern auch die nachhaltige Entwicklung von KI-Systemen, die fair, transparent und sicher sind. Langfristig wird dies den Unternehmen in Europa neue Geschäftsmöglichkeiten eröffnen und ihnen helfen, sich im globalen Wettbewerb zu behaupten.

Vielen Dank für das Gespräch!

Portrait Thomas Otto

Thomas Otto ist Managementberater und Experte für KI-Strategien bei Sopra Steria Next.

Search