Nachrichten
ZurückIn ihrem Weißbuch zu Künstlicher Intelligenz (KI) gab die EU-Kommission Anfang 2021 die Maxime aus, dass KI vertrauenswürdig sein muss. So richtig der Befund, so schwach sind die Rechtsinstrumente, auf die die EU-Kommission in ihrem nun im April 2021 veröffentlichten Verordnungsvorschlag setzt. Ihr Vorschlag schützt betroffene VerbraucherInnen unzureichend: Pflichten soll es nur bei wenigen Hochrisiko-KI-Anwendungen geben. Für alles andere soll freiwillige Selbstregulierung reichen.
Bedauerlicherweise bagatellisiert die EU-Kommission in ihrem Verordnungsvorschlag zu KI die Risiken, die mit den nicht erfassten Bereichen verbunden sind, wenn sie unverbindliche Branchenkodices empfiehlt. Bei der Nutzung „smarter“ Konsumgüter bzw. digitaler Dienste sind KonsumentInnen oft in unzumutbarer Weise mit Intransparenz, Grundrechtsverletzungen, Benachteiligungen und Verhaltensmanipulationen durch KI konfrontiert. Unfaire oder schädigende automatisierte Entscheidungen können KonsumentInnen kaum nachweisen oder sich dagegen wehren, zB VersichererInnen, die individuelle Risiken durch KI bestimmen lassen oder AnbieterInnen von Sprachassistenten, die algorithmisch gesteuerte, manipulative Empfehlungen geben oder Onlineshops, die mittels KI individualisierte Onlinepreise festlegen und bestimmte Zielgruppen damit diskriminieren. All diese Fälle werden nicht als hochriskante Bereiche im Sinne des Verordnungsvorschlages der Kommission klassifiziert, sind aber dennoch Fälle, bei denen Betroffene in Bezug auf transparente Information, Selbstbestimmtheit und erfolgreiche Abwehr von Nachteilen den Kürzeren ziehen dürften.
Die Entscheidungsfindung auf Basis reiner statistischer Annahmen und Prognosen wirft ganz elementare Fragen der Ethik, Demokratie und Menschenrechte auf. Augenscheinlich wird dies, wenn Algorithmen Entscheidungen vorbereiten oder treffen, die Menschen in ihrer statistisch nicht erfassbaren Vielfalt berühren. Ohne striktere Ge- und Verbote würden Betroffene deshalb in unzähligen KI-Testfeldern zu Versuchskaninchen, die diskriminierend klassifiziert, benachteiligend behandelt und mit ihren Einwänden nicht richtig gehört werden. Profanes Ziel nahezu aller KI sei, meint der Philosoph Richard David Precht („Künstliche Intelligenz und der Sinn des Lebens“) „mehr Kontrolle zu gewinnen und größere Gewinne zu erwirtschaften; sei es durch Medizin- oder Militärtechnik, effizientere Produktion, geringere Kosten und eine noch bessere Kenntnis des Bürgers oder Kunden.“
Die Arbeiterkammer setzt sich mit Nachdruck dafür ein, dass KonsumentInnen vor einer Aushöhlung ihrer Grund- und Freiheitsrechte und sonstigen Schadensrisiken, die von selbstlernender Analysesoftware ausgehen, besser geschützt werden. Dazu sind erforderlich:
- Regeln nicht nur für hochriskante KI einzuführen. Ein abgestufter, verpflichtender Rechtsrahmen ist für alle KI-Risikoklassen nötig. Freiwillige Selbstverpflichtungen sind ungeeignet, um VerbraucherInnenrechte zu schützen und Vertrauen zu stärken.
- Rechte für Betroffene zu verankern, deren Bedürfnisse überhaupt nicht mitgedacht wurden. Dazu zählen ua das Recht auf Information, Auskunft, Selbstbestimmung in Bezug auf die Möglichkeit, KI-Analysen und Entscheidungen basierend auf persönlichen Daten auch abzulehnen, aber auch Beschwerderechte.
- gesellschaftlich unerwünschte KI-Systeme ausnahmslos zu verbieten statt lückenhafter Verbote nur für wenige Spielarten von „Social Scoring“ (Bewertung des sozialen Verhaltens einer Person durch Behörden zur Feststellung ihrer Vertrauenswürdigkeit), biometrischer Fernüberwachung und Verhaltensmanipulation.
- die Risiken, die HerstellerInnen und NutzerInnen ausschließen müssen, konkret zu benennen. Gefahren für die Sicherheit, Gesundheit und Grundrechte sind zwar zu minimieren. Dabei ist aber weder ein allgemeines Diskriminierungsverbot verankert, noch genau normiert, in welchem risikofreien bzw -behafteten Zustand KI auf den Markt gelangen darf.
- eine KI-Zertifizierung ausnahmslos durch unabhängige Behörden statt bloßer Selbstzertifizierung durch die HerstellerInnen.
- dass alle KI-Entscheidungen, -Dienste und -Produkte – bei sonstigem Verbot – tatsächlich überprüfbar bleiben und den Betroffenen verständlich erklärt werden. Nur so können sich diese Diskriminierung, Benachteiligung, Verhaltensmanipulation oder Betrügereien überhaupt bewusst werden und diese abwehren.
- eine institutionelle Einbindung von BetroffenenvertreterInnen bei interessensabwägenden Entscheidungen über die (Un-)Zulässigkeit von konkreten KI-Anwendungen.
- kollektive Rechtsschutzmöglichkeiten für Betroffene durch Verbandsklagbefugnisse einzuführen.
Weiterführende Informationen:
AK EUROPA Positionspapier: EU-Verordnung zur Künstlichen Intelligenz
AK Wien: Analyse des VO-Entwurfes KI aus VerbraucherInnensicht
AK EUROPA: Verordnungsvorschlag zu Künstlicher Intelligenz mit Nachbesserungsbedarf
AK EUROPA Positionspapier: Weißbuch zur Künstlichen Intelligenz