Brüssel, 2. Februar 2024
Die Mitgliedstaaten der Europäischen Union haben heute im Ausschuss der Ständigen Vertreter (AStV) die Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (KI-Verordnung, AI Act) einstimmig gebilligt. Mit der KI-Verordnung setzt die EU den Rahmen für den Einsatz von Künstlicher Intelligenz (KI) in Europa. Sie zielt darauf ab, Innovationen zu fördern, gleichzeitig das Vertrauen in KI zu stärken und sicherzustellen, dass diese Technologie in einer Weise genutzt wird, die die Grundrechte und die Sicherheit der Bürgerinnen und Bürger der EU respektiert. Die KI-Verordnung ist das weltweilt erste umfassende Regelwerk für KI.
Vizekanzler und Bundesminister für Wirtschaft und Klimaschutz Dr. Robert Habeck: „Mit der Zustimmung der EU-Mitgliedstaaten gehen lange und intensive Verhandlungen erfolgreich zu Ende. Die KI-Verordnung soll dafür sorgen, dass wir in Europa das enorme Potenzial von KI heben und gleichzeitig auch Risiken in den Blick nehmen. Mit der KI-Verordnung ist diese Balance gelungen. Dafür haben wir uns intensiv in die Verhandlungen eingebracht. Bei der Umsetzung der Regeln werden wir Innovationsfreundlichkeit, Rechtsklarheit für Unternehmen und schlanke und bürokratiearme Strukturen ins Zentrum stellen – für einen starken KI– Standort Europa.“
Bundesminister für Justiz Dr. Marco Buschmann: „Heute ist ein guter Tag für Innovationen und Grundrechte in Europa. Denn heute hat der Ausschuss der Ständigen Vertreter die KI-Verordnung beschlossen. Mit dem Beschluss ist der Weg frei für einen sicheren Rechtsrahmen für Künstliche Intelligenz, der Innovationen fördert und gleichzeitig Risiken in der Anwendung angemessen adressiert. Die Verordnung schafft die Balance zwischen Innovation und Risikoschutz. International ist dieser Rechtsrahmen ein Novum – Europa wird damit zum Pionier. Klar ist aber auch: Wir müssen die Entwicklungen im Bereich KI beobachten und evaluieren. Nur so können wir die Balance zwischen Innovation und Risikoschutz auch künftig sichern.”
Für die Vertretung der deutschen Position bei den europäischen Verhandlungen über die KI-Verordnung sind das Bundesministerium für Wirtschaft und Klimaschutz und das Bundesministerium der Justiz federführend zuständig. Folgende Meilensteine konnten erreicht werden:
Es wird klargestellt, dass es sich bei der KI-Verordnung um eine Produktregulierung handelt, die sich nicht auf Forschungs- und Entwicklungsaktivitäten bezieht. Gleichzeitig schafft die Verordnung das Fundament für die Entwicklung anwendungsorientierter KI in Europa.
Social Scoring mithilfe Künstlicher Intelligenz und Emotionserkennung am Arbeitsplatz wird es in Europa nicht geben. Zur biometrischen Fernidentifikation enthält die Verordnung strenge und einschränkende Vorgaben und beugt einer flächendeckenden biometrischen Überwachung vor.
Hierin zeigt sich auch der risikobasierte Ansatz, den die KI-Verordnung verfolgt: Je höher das Risiko ist, desto strenger sind auch die Pflichten. Während KI-Systeme mit einem inakzeptablen Risiko (wie etwa Social Scoring) gänzlich verboten werden und für Hochrisiko-KI-Systeme strenge technische und organisatorische Anforderungen gelten, unterliegen Anwendungen mit geringem Risiko lediglich bestimmten Transparenz- und Informationspflichten.
Besondere Vorschriften wird es zudem für generative KI geben, namentlich sogenannte KI-Modelle mit allgemeinem Verwendungszweck, darunter auch solche, die Inhalte wie Texte und Bilder generieren. Dabei unterliegen besonders wirkmächtige KI-Modelle mit systemischem Risiko strengeren Auflagen.
Konkretisierend wird es auf Verhaltenskodizes (Codes of Practice) ankommen, die zusammen mit Modellanbietern und Stakeholdern erarbeitet werden, bis später auf Standards und damit harmonisierte europäische Normen zurückgegriffen werden kann. Damit wird der hochdynamischen Entwicklung von KI Rechnung getragen und unter anderem sichergestellt, dass Anwender über die für sie notwendigen Informationen verfügen. Die Pflichten sind auch infolge des Einsatzes der Bundesregierung begrenzt und möglichst praktikabel ausgestaltet.
Auch für kleine und mittlere Unternehmen wird Transparenz die Anwendung von KI erleichtern. Insgesamt werden die Interessen und Bedürfnisse von KMU und Start-ups verstärkt berücksichtigt – auch durch die von der Bundesregierung eingebrachten Regeln für Reallabore, die Freiräume zur Erprobung von Innovationen schaffen.
Vor Inkrafttreten der KI-Verordnung müssen noch das Europäische Parlament und eine Ratsformation formell zustimmen. Die Verordnung tritt am 20. Tag nach Veröffentlichung im EU-Amtsblatt in Kraft und findet grundsätzlich 24 Monate später Anwendung. Einige Vorschriften sind aber auch schon früher anwendbar: So greifen die Verbote bereits nach sechs Monaten, die Vorschriften zu KI-Modellen mit allgemeinem Verwendungszweck gelten nach 12 Monaten.
Bei der nun anstehenden Umsetzung wird sich die Bundesregierung gemeinsam mit den anderen Mitgliedstaaten und der Kommission für eine bürokratiearme und innovationsfreundliche Lösung einsetzen.
Bitkom: Umsetzung des AI Acts entscheidet über Europas Chancen bei KI
- EU-Mitgliedsstaaten wollen heute AI Act zustimmen
- Bitkom: „AI Act darf keine KI-Bremse werden“
Berlin, 02. Februar 2024
Der Digitalverband Bitkom fordert anlässlich der heutigen Abstimmung über den AI Act im Ausschuss der ständigen Vertreter der EU-Mitgliedsstaaten eine rechtssichere und innovationsfreundliche Umsetzung. Der AI Act überträgt einige zentrale Fragen in die Verantwortung der Mitgliedstaaten. „In seiner gegenwärtigen Form wird der AI Act kaum für mehr Rechtssicherheit bei Entwicklung und Einsatz von KI sorgen. Dafür kommt es maßgeblich auf eine praktikable Auslegung und Anwendung der Vorgaben in den EU-Mitgliedsländern an“, sagt Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. „Die Bundesregierung ist aufgefordert, bei der Umsetzung die Chancen Künstlicher Intelligenz für Wirtschaft, Gesellschaft und Verwaltung in den Mittelpunkt zu stellen. Die Fehler der DS-GVO dürfen wir nicht wiederholen.“ Nur so könne das selbstgesteckte Ziel der EU erreicht werden, eine weltweite Führungsrolle bei vertrauenswürdiger KI einzunehmen. „Der AI Act stellt in unterschiedlichen Bereichen Anforderungen an Unternehmen, die sich mit bereits bestehenden Vorgaben wie etwa in der Medizinprodukt- oder der Maschinenrichtlinie doppeln oder sogar im Widerspruch stehen. Wenn wir wollen, dass Unternehmen in Europa und Deutschland weiterhin KI entwickeln und nutzen, müssen wir bei der Umsetzung des AI Act auf unnötige bürokratische Hürden und eine Konsistenz mit der existierenden Gesetzgebung achten“, so Dehmel. „Mit dem AI Act und seiner Umsetzung entscheidet sich, ob europäische Unternehmen und Startups die Chance haben, mit den globalen Innovationstreibern der KI Schritt zu halten oder sich sogar an die Spitze dieser Epoche prägenden Technologie zu setzen.“
Bitkom unterstützt seit Beginn der Verhandlungen im April 2021 das grundsätzliche Ziel des AI Acts, das Vertrauen in KI zu stärken und damit die KI-Nutzung voranzubringen. Dazu gehört zum einen die ursprüngliche Grundkonzeption des risikobasierten Ansatzes mit einem engen und klar definierten Hochrisikobereich. Zum anderen hat die Digitalwirtschaft auch die Orientierung am Erfolgsmodell des sogenannten „New Legislative Frameworks“ unterstützt, bei dem der Gesetzgeber Schutzziele definiert und die Wirtschaft diese über Standards konkret umsetzt. Der vorliegende Kompromiss zum AI Act löst beide Aufgaben allerdings nur unzureichend. So wurde mit starren und weitreichenden Anforderungen an die sogenannte „General Purpose AI Models“ ohne Not vom risikobasierten Ansatz abgewichen. Außerdem wurden die Vorteile der Flexibilität einer verpflichtenden regulierten Selbstregulierung nicht ausreichend genutzt und damit zugleich die Anschlussfähigkeit an internationale Selbstregulierungsansätze wie den G7 AI Code of Conduct verpasst.
Ausdrücklich warnt Bitkom vor unterschiedlichen Auslegungen des AI Acts innerhalb der EU. Insbesondere Startups und kleine und mittlere Unternehmen würde dies vor kaum lösbare Probleme stellen, wenn sie ihre Angebote an 27 unterschiedlichen KI-Regularien ausrichten müssten. „Der AI Act darf keine KI-Bremse werden. Keinesfalls darf Deutschland die Möglichkeiten für Markteingriffe bis an die Grenzen des Zulässigen ausreizen, wie wir dies bei der DS-GVO erleben mussten. Damit würden Unternehmen in ein regulatorisches Korsett gezwungen, das Innovationen im Keim erstickt“, sagt Dehmel. Die von der Bundesregierung bislang vorgesehenen Maßnahmen zur Unterstützung von Startups und KMUs seien angesichts des zu erwartenden hohen Aufwands, um etwa die Anforderungen für Hochrisiko-KI-Systeme zu erfüllen, müssten deutlich ausgebaut werden.