KI-Sicherheit
Normung
Die Normung im KI Bereich
Im Bestreben der Regulierung Künstlicher Intelligenz hat die Europäische Kommission bereits am 22. Mai 2023 einen Durchführungsbeschluss über einen Normungsauftrag an die Europäischen Normungsorganisationen erlassen. Ziel ist es, anhand von Standards die Transparenz, die Qualität und das Risikomanagement von KI Systemen zu adressieren. Am 21. Mai 2024 hat der Europäische Gesetzgeber den AI Act als rechtliche Grundlage zur Regulierung von KI Systemen verabschiedet.
Der AI Act
Kernstück des AI Act ist die Einstufung von KI Systemen in vier Risikostufen (von inakzeptablem Risiko bis minimalem Risiko), wobei diese Einstufung im Lichte bzw. vergleichbar eines Produktsicherheitsrisikos erfolgen sollte. Dementsprechend stellt sich die Frage, inwieweit der Einsatz eines KI Systems in einem gewissen Bereich ein Risiko für die Anwenderinnen und Anwender darstellt. Durch die nun finale Einigung beim AI Act, wurde der Normungsauftrag aus 2023 inzwischen überarbeitet und angepasst, wobei die zu adressierenden Themengebiete im Wesentlichen gleich blieben.
Im Fokus steht daher weiterhin die Erarbeitung von Standards zu den Aspekten möglicher Risikomanagementsysteme, zur Qualität von Datensätzen, zur Aufzeichnung durch Protokollierungsfunktionen von KI-Systemen, zur Transparenz und Information der Nutzer von KI-Systemen, menschlicher Aufsicht über KI-Systeme, zu Spezifikationen für die Genauigkeit von KI-Systemen, zur Robustheit von KI-Systemen, zu Spezifikationen für die Cybersicherheit von KI-Systemen, zu Verfahren zur Beobachtung nach dem Inverkehrbringen sowie zur Konformitätsbewertung für KI-Systeme.
Diese Themen werden derzeit im JTC 21 von Cen und Cenelec (den europäischen Normungsorganisationen) und in den entsprechenden Spiegelkomitees und Arbeitsgruppen auf nationaler Ebene be- und erarbeitet.
Derzeitiger Stand
Derzeitiger Stand
Spätestens seit dem Normungsauftrag aus 2023 ist es zu einer regelrechten Explosion an Normungsarbeiten und -Tätigkeiten gekommen. So wird derzeit an gut 40 verschiedenen Normungsprojekten parallel gearbeitet. Aus dem Blickwinkel des Konsumentenschutzes besonders erwähnenswert ist dabei das sogenannte „Trustworthiness Framework“. Eine Norm, die gleich einige Teile des Normungsauftrags abdecken sollte. So wäre geplant, in dieser Norm die Aufzeichnungs- und Protokollierungsfunktionen, die Transparenz- und Informationspflichten, die menschliche Aufsicht über KI-Systeme, Themen der Genauigkeit der KI sowie der Robustheit und der Cybersicherheit anzusprechen und näher auszuführen und damit eine wichtige Orientierungshilfe für die Erfüllung der Verpflichtungen aus den Artikeln 12 bis 15 des AI Act zu schaffen.
Unsere Mission
Unser Ziel ist es, im Rahmen des Normungsprozesses mit einem Augenmerk auf das Trustworthiness Framework daran mitzuwirken, dass einerseits Innovation ermöglicht, andererseits Verbraucherinnen und Verbraucher, die mit KI Systemen interagieren, ausreichend geschützt werden und es zu keinem Missbrauch ihrer Daten kommt.