EU-Regeln Wie streng sollte man Künstliche Intelligenz regulieren?
Chatbots, Smart Living, automatische Gesichtserkennung: Künstliche Intelligenz wird in unserem Alltag immer präsenter. Die EU-Kommission hat einen Vorschlag gemacht, wie man die Technologie regulieren könnte. Im Digitalausschuss bewerteten Experten ihn sehr unterschiedlich.
Was ist Künstliche Intelligenz eigentlich?
Künstliche Intelligenz – oder kurz: KI – ist der Überbegriff für Maschinen und Programme, die komplexe Aufgaben nicht nur selbstständig ausführen, sondern dabei auch noch dazu lernen können. Das kann der Algorithmus sein, der euch beim Streamen oder Shoppen Empfehlungen ausspricht. Oder der Chatbot, den ihr auf einer Service-Seite um Rat fragt. Oder ein Sprachassistent, der euch im Internet eine Adresse raussucht.
KI ist inzwischen in vielen Lebensbereichen präsent: in der Kommunikation, im Verkehr, in der Medizin… Und gerade weil diese Technologie unser Leben immer stärker mit bestimmt, ist es wichtig, klare Regeln dafür zu schaffen. Diese sollen den Umgang mit KI regulieren, um zum Beispiel dafür zu sorgen, dass die Privatsphäre und die Grundrechte der Nutzerinnen und Nutzer gewahrt werden. Und da Computerprogramme vor Landesgrenzen nicht Halt machen, strebt die Europäische Union europaweite Regelungen an.
Was plant die EU?
Im April 2021 hat die EU-Kommission einen Vorschlag für einen solchen Rechtsrahmen gemacht. Darin schlägt sie vor, KI-Systeme in vier verschiedene Risikostufen einzuteilen: „unzulässig“, „hohes Risiko“, „begrenztes Risiko“ und „minimales Risiko“. Entsprechend dieser Risikostufen sollen alle Maßnahmen und Vorschriften angepasst werden. So sollen Grundrechte, Sicherheit und Privatsphäre der Menschen geschützt werden.
Über die geplante EU-Verordnung diskutierten Experten in einer öffentlichen Anhörung im Digitalausschuss. Dabei waren sie sehr unterschiedlicher Meinung: Während die einen auf mehr Rechtssicherheit hofften, befürchten die anderen eine Überregulierung.
Lob für den Entwurf
Lob für die Pläne der EU-Kommission gab es etwa von Catelijne Muller von der niederländischen Organisation „ALLAI“, die sich für einen verantwortungsvollen Umgang mit KI (auf Englisch „AI“, Artificial Intelligence) einsetzt. Sie sagte, es sei wichtig, darauf zu achten, dass die Grundrechte beim Einsatz von KI nicht verletzt würden. So könnten Menschen davon abgeschreckt werden, auf eine Demonstration zu gehen, wenn sie Sorge haben müssten, dass sie dort per biometrischer Gesichtserkennung erkannt werden.
Joachim Bühler, Geschäftsführer beim TÜV-Verband, begrüßte den Entwurf der EU-Kommission ebenfalls. Er fand den „risikobasierten Ansatz“ der Verordnung gut. Demnach werde nur der Hochrisikobereich reguliert, das beträfe nur fünf bis 15 Prozent aller KI-Anwendungen, so Bühler.
Kritik an den Plänen der EU
Kritisch war Professor Patrick Glauner von der Technischen Hochschule Deggendorf. Er warnte vor einer Überregulierung. Die EU-Verordnung schließe sogar einen Taschenrechner mit ein, obwohl der gar keine KI sei. So werde der Fortschritt im Bereich Künstliche Intelligenz in Europa unmöglich gemacht, befürchtete Glauner.
Einen ganz anderen Kritikpunkt hatte Angela Müller von „Algorithm Watch“. Sie sagte, nicht nur die Anbieter von KI müssten reguliert werden, sondern auch die Betreiber der Systeme. Es komme nicht nur auf die Technik an sich an, sondern auch darauf, wie sie eingesetzt werde.
Hier seht ihr die Anhörung im Video:
Anträge zum Thema
Am 29. September diskutierten die Abgeordneten übrigens auch im Plenum über die geplante EU-Verordnung. Die Unionsfraktion hat dazu den Antrag „Europäische KI-Verordnung – Raum lassen für Innovation und Wettbewerbsfähigkeit“ vorgelegt. Ein Antrag der AfD-Fraktion heißt „Die Chancen Künstlicher Intelligenz in Deutschland und in der EU erkennen und fördern – Für einen differenzierten Umgang mit der Risikoklassifizierung von Lösungen Künstlicher Intelligenz“.
(jk)