KI-Sicherheit
Normung
KI-Sicherheit
Im Bestreben der Regulierung Künstlicher Intelligenz hat die Europäische Kommission bereits am 22. Mai 2023 einen Durchführungsbeschluss über einen Normungsauftrag an die Europäischen Normungsorganisationen erlassen. Ziel ist es, anhand von Standards die Transparenz, die Qualität und das Risikomanagement von KI Systemen zu adressieren. Am 21. Mai 2024 hat der Europäische Gesetzgeber den AI Act als rechtliche Grundlage zur Regulierung von KI Systemen verabschiedet.
Kernstück des AI Act ist die Einstufung von KI Systemen in vier Risikostufen (von inakzeptablem Risiko bis minimalem Risiko), wobei diese Einstufung im Lichte bzw. vergleichbar eines Produktsicherheitsrisikos erfolgen sollte. Dementsprechend stellt sich die Frage, inwieweit der Einsatz eines KI Systems in einem gewissen Bereich ein Risiko für die Anwenderinnen und Anwender darstellt. Durch die nun finale Einigung beim AI Act, wird der derzeit noch aufrechte Normungsauftrag aus 2023 an die darin festgelegten rechtlichen Grundlagen angepasst, wobei die zu adressierenden Themengebiete im Wesentlichen gleich bleiben werden.
Im Fokus steht daher weiterhin die Erarbeitung von Standards zu den Aspekten möglicher Risikomanagementsysteme, zur Qualität von Datensätzen, zur Aufzeichnung durch Protokollierungsfunktionen von KI-Systemen, zur Transparenz und Information der Nutzer von KI-Systemen, menschlicher Aufsicht über KI-Systeme, zu Spezifikationen für die Genauigkeit von KI-Systemen, zur Robustheit von KI-Systemen, zu Spezifikationen für die Cybersicherheit von KI-Systemen, zu Verfahren zur Beobachtung nach dem Inverkehrbringen sowie zur Konformitätsbewertung für KI-Systeme.
Diese Themen werden derzeit im JTC 21 von Cen und Cenelec (den europäischen Normungsorganisationen) und in den entsprechenden Spiegelkomitees und Arbeitsgruppen auf nationaler Ebene be- und erarbeitet.
Unser Ziel ist es, im Rahmen des Normungsprozesses daran mitzuwirken, dass einerseits Innovation ermöglicht, andererseits Verbraucherinnen und Verbraucher, die mit KI Systemen interagieren, ausreichend geschützt werden und es zu keinem Missbrauch ihrer Daten kommt.
Ansprechpartner: Valentin Gobl