- AI Act (KI-Verordnung) ist seit August 2024 in Kraft
- Ab dem 02. Februar 2025 gilt die Kompetenzpflicht (durch Schulungen)
- Unternehmen sind zum Handeln verpflichtet
Die Möglichkeiten, die Künstliche Intelligenz (KI) für den Handel bietet, reichen von der Optimierung von Einkaufsprozessen und Lagerverwaltungen bis hin zur personalisierten Kundenansprache und der präzisen Vorhersage von Markttrends.
Mit dem Artificial Intelligence Act (kurz: AI Act) hat die Europäische Union jedoch auch einen umfassenden rechtlichen Rahmen geschaffen, der den Einsatz von KI-Systemen regelt. Ziel der Verordnung ist es, die Entwicklung und Nutzung von KI-Technologien sicher und ethisch verantwortungsvoll zu gestalten. Dabei verfolgt der AI Act einen risikobasierten Ansatz, der es ermöglicht, verschiedene KI-Anwendungen je nach ihrem potenziellen Risiko für die Gesellschaft und den Einzelnen zu kategorisieren. Der AI Act trat am 1. August 2024 in Kraft, Unternehmen müssen jetzt einige der Regelungen bereits kurzfristig umsetzen, insbesondere im Hinblick auf die Kompetenzpflicht und die Sicherstellung der Fachkenntnisse ihrer Mitarbeitenden.
Für Unternehmen, die KI entwickeln oder einsetzen, bedeutet der AI Act, dass sie sich frühzeitig auf die neuen rechtlichen Anforderungen vorbereiten müssen. Dazu gehören nicht nur technische Maßnahmen wie die Bewertung der Risikostufen von KI-Systemen, sondern auch organisatorische Anpassungen wie die Schulung von Mitarbeitenden, die den Umgang mit diesen Systemen sicherstellen sollen.
Obwohl viele Bestimmungen des AI Acts erst ab dem 1. August 2026 vollständig in Kraft treten, gibt es bereits vorab verpflichtende Anforderungen, die Unternehmen betreffen. Kapitel 1 und 2 des AI Acts müssen bereits bis zum 2. Februar 2025 umgesetzt werden. Das bedeutet, dass Unternehmen bis zu diesem Datum sicherstellen müssen, dass sie den Anforderungen zur Kompetenzpflicht und anderen ersten Regelungen gerecht werden.
Artikel 4 – Kompetenzpflicht: Artikel 4 des AI Acts stellt die Grundlage für die Schulungspflicht und damit eine der zentralen Verpflichtungen dar, die Unternehmen betreffen. Anbietende und Betreibende von KI-Systemen sind verpflichtet, sicherzustellen, dass ihre Mitarbeitenden und alle Dritten, die mit diesen Systemen arbeiten oder Zugang zu ihnen haben, über die erforderlichen Fachkenntnisse und Kompetenzen verfügen. Hierzu müssen sie ein Konzept entwickeln. Der AI Act verlangt somit nicht nur die technische Eignung der eingesetzten KI-Systeme, sondern auch die Qualifikation der Personen, die diese Systeme bedienen oder überwachen.
Die Verantwortung für die Umsetzung dieser Maßnahmen liegt also bei der Unternehmensleitung, die dafür sorgen muss, dass geeignete Schulungsprogramme entwickelt und rechtzeitig durchgeführt werden. Diese Schulungen müssen regelmäßig aktualisiert werden, um mit den fortschreitenden Entwicklungen in der Technologie sowie den rechtlichen Anforderungen Schritt zu halten.
Es gibt für KI-Systeme mit niedrigem Risiko – wie etwa Chatbots oder Empfehlungssysteme – Anforderungen, die beachtet werden müssen:
Artikel 5 – Verbot bestimmter KI-Systeme: Ein weiterer wichtiger Punkt des AI Acts ist das Verbot bestimmter KI-Systeme, die als besonders risikobehaftet eingestuft werden. Ab Februar 2025 dürfen diese Systeme nicht mehr eingesetzt werden, denn bei Verstößen gegen diese Regelung drohen empfindliche Bußgelder von bis zu 35 Millionen Euro. Unternehmen müssen daher sicherstellen, dass sie alle KI-Systeme, die sie verwenden, regelmäßig auf die Einhaltung dieser Bestimmungen überprüfen.
Ein zunehmend relevantes Thema für Handelsunternehmen ist der Einsatz von General Purpose AI (GPAI), auch als Basismodelle bekannt. Diese KI-Systeme haben einen allgemeinen Verwendungszweck und können für verschiedene Aufgaben im Unternehmen eingesetzt werden. Es handelt sich dabei um die am meisten verbreiteten KI-Systeme. Ein Beispiel für ein solches System ist ChatGPT.
Unternehmen, die GPAI-Systeme verwenden, müssen sicherstellen, dass sie den rechtlichen Anforderungen des AI Acts entsprechen, insbesondere in Bezug auf die Sicherheit und Transparenz der Systeme. Die Bewertung des Risikos sowie die Dokumentation der Funktionsweise dieser Systeme sind dabei entscheidend.
Neben den ethischen und datenschutzrechtlichen Fragen müssen Handelsunternehmen, die KI einsetzen, auch arbeitsrechtliche und urheberrechtliche Bestimmungen beachten.
Im Rahmen des AI Acts (Artikel 4) werden spezifische Anforderungen an Schulungen gestellt:
Die Schulung muss auf den konkreten Einsatz von KI-Systemen im Unternehmen abgestimmt sein. Dies bedeutet, dass die Inhalte der Schulung die spezifischen Funktionalitäten und Risiken der verwendeten KI-Systeme abdecken müssen. Je nach Risikoklassifikation des Systems (z.B. hochriskante oder niedrigrisikante KI-Systeme) können unterschiedliche Schulungsinhalte erforderlich sein.
Die Schulung muss zielgruppenorientiert gestaltet werden. Das heißt, sie muss sich an die unterschiedlichen Bedürfnisse und Aufgaben der Mitarbeitenden anpassen. Mitarbeitende haben möglicherweise unterschiedliche Anforderungen an die Schulung.
Eine wirksame Schulung muss auch die spezifischen Risiken berücksichtigen, die mit dem Einsatz von KI-Systemen verbunden sind. Diese umfassen unter anderem:
Die Schulung sollte praxisorientiert sein, sodass Mitarbeitende in der Lage sind, das erlernte Wissen direkt anzuwenden. Dies könnte durch Fallstudien, praktische Übungen oder Simulationen erfolgen, die reale Anwendungsfälle widerspiegeln und den Mitarbeitenden helfen, sich in der praktischen Anwendung von KI sicher zu fühlen.
Da KI-Technologien schnell voranschreiten und sich die rechtlichen Rahmenbedingungen ständig weiterentwickeln, sollte die Schulung regelmäßig aktualisiert und fortlaufend angeboten werden. Dabei liegt ein Augenmerk auf der technologischen Weiterentwicklung der Systeme, den regulatorischen Anforderungen und Gesetzesanpassungen sowie der Auffrischung des Wissens.
Um den gesetzlichen Anforderungen des AI Act gerecht zu werden, müssen Unternehmen in der Lage sein, die durchgeführten Schulungsmaßnahmen zu dokumentieren. Diese Dokumentation ist erforderlich, um im Falle einer Überprüfung nachweisen zu können, dass alle Mitarbeitenden über die notwendigen Fachkenntnisse im Umgang mit KI-Systemen verfügen. Dazu gehören:
Die Schulungen im Sinne des Artikels 4 AI Act sollten von qualifizierten Fachleuten durchgeführt werden, die sowohl über Fachwissen in der KI-Technologie, als auch in den relevanten rechtlichen und ethischen Fragen verfügen. Zudem sollte die Schulung auf einem wissenschaftlich fundierten Wissen basieren und sich auf die neuesten Best Practices und Standards stützen.
2. Interne Richtlinien zur KI-Nutzung: Unternehmen sollten klare, unternehmensweite Richtlinien (Guidelines) entwickeln, die den verantwortungsvollen Einsatz von KI-Technologien regeln und die Einhaltung der rechtlichen Vorgaben sicherstellen.
3. Anwaltliche Beratung: Um eine rechtlich einwandfreie Nutzung von KI-Systemen sicherzustellen, ist es ratsam, rechtlichen Beistand hinzuzuziehen, insbesondere bei der Umsetzung von Compliance-Maßnahmen und bei der Beurteilung von Haftungsrisiken.
Der AI Act stellt Unternehmen vor neue Herausforderungen, bietet jedoch gleichzeitig Chancen, KI verantwortungsbewusst zu nutzen. Die Kompetenzpflicht ist eine zentrale Grundlage der Schulungspflicht und spielt eine Schlüsselrolle, um den rechtlichen Anforderungen gerecht zu werden und KI-Systeme sicher und effektiv einzusetzen. Unternehmen sollten sich frühzeitig mit den Vorschriften vertraut machen und sicherstellen, dass ihre Mitarbeitenden über das notwendige Wissen verfügen, um den Anforderungen des AI Acts gerecht zu werden.