AdobeStock 840860205

Künstliche Intelligenz (KI) in Unternehmen - Teil 3

2.11.2024 Andrea Andersen

In der zweiten Ausgabe unserer Serie haben wir uns mit den Fähigkeiten, Aufgaben und Risiken von KI-Systemen beschäftigt. In dieser Ausgabe widmen wir uns dem Einsatz und Nutzen von KI-Systemen, beleuchten die Risikoklassen der EU-KI-Verordnung (EU AI Act) und stellen die ethischen Aspekte der Ethikleitlinie für vertrauenswürdige KI von 2019 vor.

Rechtliche Regelungen rund um KI

Es muss sichergestellt werden, dass Unternehmen beim Einsatz von KI die geltenden Gesetze und Vorschriften wie die Datenschutz-Grundverordnung (DSGVO), die KI-Verordnung der EU und die UN-Charta einhalten. Dazu gehört auch, dass personenbezogene Daten rechtmäßig verarbeitet und die Rechte der Betroffenen gewahrt werden. Wie bei allen anderen Arten der Verarbeitung gilt auch hier: Ohne Rechtsgrundlage dürfen keine personenbezogenen Daten verarbeitet werden.

Ethische Aspekte rund um KI

Zu den ethischen Überlegungen zählt, dass Ihre KI-Anwendungen verantwortungsvoll eingesetzt werden. Dazu gehören die Vermeidung von Diskriminierung, Transparenz in den Entscheidungsprozessen und die Berücksichtigung der Auswirkungen auf die Gesellschaft.

Die KI-Verordnung der EU spricht von einer menschenzentrierten Technologie, die dem Menschen als Instrument dienen und letztlich das menschliche Wohlergehen verbessern soll. Oberstes Ziel muss die Wahrung von Grundrechten, Gesundheit und Sicherheit sein!

Ethikleitlinie für vertrauenswürdige KI von 2019

Die Ethikleitlinie für vertrauenswürdige KI von 2019 soll KI vertrauenswürdig und ethisch vertretbar machen. Sie umfasst sieben Grundsätze: - Menschliches Handeln und menschliche Aufsicht: Technik darf nie das Sagen haben. - Technische Robustheit und Sicherheit: KI muss verlässlich sein und vor Schaden beschützen. - Privatsphäre und Daten-Governance: Datenschutz und Persönlichkeitsrechte sind zu wahren. - Transparenz: Daten und Prozesse von KI müssen rückverfolgbar und erklärbar sein. - Vielfalt, Nichtdiskriminierung und Fairness: Kein Mensch darf aufgrund seines kulturellen, religiösen oder geschlechtlichen Hintergrundes benachteiligt werden. - Soziales und ökologisches Wohlergehen: Die Auswirkungen von KI-Systemen auf Gesellschaft und Umwelt müssen geprüft werden. - Rechenschaftspflicht: Damit die Fairness von KI-Systemen gewährleistet wird, muss geklärt sein, wer für KI-Systeme und deren Ergebnisse verantwortlich ist und rechtlich zur Rechenschaft gezogen werden kann.

Risikoklassen der EU-KI-Verordnung

Es ist wichtig zu verstehen, dass die KI-Verordnung der EU grundsätzlich einen risikobasierten Ansatz verfolgt. Dabei werden KI-Systeme in verschiedene Risikokategorien eingeteilt, die von minimalem bis hin zu hohem Risiko reichen. Je höher das Risiko, desto strengere Anforderungen und Auflagen gelten für die Entwicklung und den Einsatz dieser Systeme. Ziel ist es, die Sicherheit und die Grundrechte der Nutzer zu schützen und gleichzeitig Innovation zu fördern. Jedes KI-System kann einer der vier Stufen (von minimalem / kein Risiko bis verboten) zugeordnet werden.

KI-Risikoklassen EU AI ACT (EU-KI-Verordnung)

  • Verboten nach Artikel. 5

  • Hochrisiko; erlaubt unter Auflagen (Art. 6)

  • Begrenztes Risiko

  • Minimales oder kein Risiko

Verboten: Systeme, die das Leben, die Sicherheit und die Rechte von Menschen bedrohen, z.B. Social Scoring, KI-Systeme zur Manipulation von Personen, biometrische Identifizierung in öffentlichen Bereichen, biometrische Kategorisierung anhand sensibler Merkmale (Herkunft, Religion, politische Ansichten etc.).

Hochrisiko: Systeme, die nur unter strengen Auflagen erlaubt sind und bei denen Fehler schwerwiegende Folgen haben können, wie z.B. in der Medizin oder bei der Strafverfolgung, beim Einsatz in kritischen Infrastrukturen (z.B. Verkehr, Energieversorgung), im Bereich Migration, Asyl und Grenzkontrollen sowie bei Systemen, die den Zugang zu Arbeit, Bildung oder grundlegenden privaten und öffentlichen Diensten regulieren.

Begrenztes Risiko: KI-Systeme, die mit Menschen direkt interagieren können, z.B. Chatbots. KI-Systeme, die Emotionen erkennen und Inhalte künstlich erzeugen oder verändern (Deepfakes). Diese KI-Systeme unterliegen den Transparenzpflichten (Art. 52 KI-Verordnung).

Minimales oder kein Risiko: Diese Anwendungen haben i.d.R. eine sehr spezifische und begrenzte Aufgabe, z.B. KI-gestützte Videospiele, Spamfilter. Sie sind nicht darauf ausgelegt, komplexe Entscheidungen zu treffen oder autonome Handlungen auszuführen. Sie haben keine direkten Auswirkungen auf die physische oder psychische Integrität von Menschen. Ihre Funktionsweisen sind in der Regel leicht verständlich und nachvollziehbar.

Mustervertragsbedingungen für Hochrisiko-KI-Systeme

In der KI-Verordnung der EU wird unter Ziffer (90) auf Seite 37 erwähnt, dass zwischen den Anbietern von Hochrisiko-KI-Systemen und Dritten eine schriftliche Vereinbarung geschlossen werden sollte. Darin sollen die Rechte und Pflichten der Vertragsparteien klar definiert werden, um Transparenz und Vertrauen zu fördern und Rechtsunsicherheiten zu verringern. Die Europäische Kommission arbeitet derzeit an einer Vorlage, die kostenlos zur Verfügung gestellt werden soll.

Vor dem Einsatz von KI: Gründliche Risikobewertung

Vor der Einführung einer KI ist eine Risikobewertung notwendig, um potenzielle Risiken im Zusammenhang mit der Nutzung von KI zu identifizieren. Dies kann auch die Implementierung von Sicherheitsmaßnahmen und Notfallplänen erforderlich machen. Für die Risikobewertung muss eine Datenschutzfolgeabschätzung durchgeführt werden, bei der die Auswirkungen einer geplanten Datenverarbeitung auf den Schutz personenbezogener Daten bewertet werden. Wenn Sie Hilfe benötigen, sprechen Sie uns gerne an!

Ausblick

In der nächsten Ausgabe zeigen wir Ihnen, wie Sie KI datenschutzkonform einsetzen können. Wir erklären Ihnen, was Sie bei der Implementierung von KI beachten müssen und welche Fragen Sie klären sollten.

Wir unterstützen Sie gerne bei der Entwicklung einer Richtlinie für den Einsatz von KI in Ihrem Unternehmen! Kontaktieren Sie uns, um mehr zu erfahren.