Automatisierte Entscheidungssysteme (Automated Decision-Making Systems, ADM-Systeme) sind längst in unserem Alltag angekommen. Egal ob in der Medizin, im Finanzwesen, bei Behörden oder durch personalisierte Werbung – die Anwendungen dieser Systeme scheinen unbegrenzt. Während ADM-Systeme viele Möglichkeiten bieten, um Effizienz zu steigern und komplexe Probleme zu lösen, bergen sie auch erhebliche Risiken.
Hier setzt die Digitale Gesellschaft an, eine Schweizer Non-Profit-Organisation, die sich für den Schutz der Grundrechte im digitalen Raum engagiert. In ihrem anfangs September 2024 überarbeiteten Positionspapier zur Regulierung von ADM-Systemen fordert sie klare rechtliche Rahmenbedingungen, um die Nutzung solcher Technologien zu steuern und die Gesellschaft zu schützen.
Das Papier entstand aus der Überzeugung, dass die rasante Entwicklung von KI-Technologien nicht nur technische Fragen aufwirft, sondern auch gesamtgesellschaftliche, ethische und rechtliche Herausforderungen mit sich bringt. Die Digitale Gesellschaft setzt auf einen menschenzentrierten Ansatz: ADM-Systeme sollen der Gesellschaft dienen und dürfen nicht zur Bedrohung für individuelle Rechte und Freiheiten werden. Ebenfalls wirft die Entwicklung und der Einsatz von ADM-Systemen die Frage auf, inwiefern unsere bestehenden Gesetze (DSG, Strafgesetz etc.) die gesamtgesellschaftliche Verantwortung abbilden. Die „Digitale Gesellschaft“ ist der Meinung, dass mit den bestehenden Gesetzen die Rechte und Pflichten von Individuen betrachtet werden, die gesetzliche Regulierung von ADM-Systemen aber nicht auf ein Individuum, sondern im besten Fall auf eine Organisation / ein Unternehmen bezogen werden muss.
In diesem Blogartikel beleuchte ich anhand des Positionspapiers, warum Regulierung und ethische Standards notwendig sind, warum Transparenz und Verantwortung wichtig sind und wie die ganze Gesellschaft eine Rolle bei der Gestaltung der Zukunft mit KI spielen kann.
Warum wir Regulierung und ethische Standards brauchen
Mit der zunehmenden Verbreitung von KI- und ADM-Systemen wird die Frage nach der passenden Regulierung immer drängender. Ohne klare Regeln riskieren wir, dass diese Technologien Schaden anrichten – sei es durch diskriminierende Algorithmen resp. einseitigen oder unvollständigen Datensätzen, intransparente Entscheidungsprozesse oder den Verlust von Arbeitsplätzen.
Ethische Leitlinien sind deshalb unverzichtbar. Sie sollen gewährleisten, dass ADM-Systeme fair, transparent und nachvollziehbar arbeiten und eingesetzt werden. Die Digitale Gesellschaft fordert in ihrem Positionspapier, dass ADM-Systeme, die ein hohes Risiko für Individuen oder die Gesellschaft darstellen, strengen Sorgfalts- und Transparenzpflichten unterliegen. Dazu gehört auch die Offenlegung, wie und warum bestimmte Entscheidungen getroffen werden, besonders wenn diese grosse Auswirkungen auf das Leben (und Sterben) von Menschen haben (bspw. in der Medizin).
Transparenz und Verantwortung: Wie KI verständlicher wird
Transparenz ist der Schlüssel, um Vertrauen in KI-Systeme zu schaffen. Wenn nachvollziehbar ist, wie ADM-Systeme zu ihren Entscheidungen kommen, lassen sich Fehler frühzeitig erkennen und beheben. Unternehmen, die solche Systeme einsetzen, sollen daher im Sinne der Selbstdeklaration offenlegen, wie ihre Systeme funktionieren und wie sie Entscheidungen treffen. Dabei geht es nicht nur um technische Details, sondern auch um die Qualität der Daten, die verwendet werden. Denn schlechte oder einseitige Daten (Bias) können zu Entscheidungen führen, die Menschen aufgrund von Herkunft, Geschlecht oder anderen Merkmalen benachteiligen.
Die Verantwortung für den Einsatz von KI-Systemen liegt jedoch nicht allein bei den Entwicklern und Unternehmen. Auch Regierungen und einzelne Bürgerinnen und Bürger tragen Verantwortung. Ein Vorschlag, wie die Verwantwortung aufgeteilt werden könnte, lautet wie folgt:
- Regierungen sollten klare Richtlinien und Gesetze erlassen, die den Einsatz von ADM-Systemen regeln.
- Unternehmen müssen sicherstellen, dass ihre Systeme nicht nur technisch einwandfrei, sondern auch ethisch vertretbar sind.
- Und als Einzelne sollten wir uns darüber im Klaren sein, wie KI unser Leben beeinflusst und verantwortungsvolle Praktiken einfordern.
Die Rolle der Gesellschaft: Was jede und jeder tun kann
Künstliche Intelligenz und ADM-Systeme betreffen uns alle, und deshalb sollte sich die gesamte Gesellschaft an der Diskussion über deren Einsatz beteiligen. Aufklärung und Bildung sind wichtig, um die Chancen und Risiken von KI zu verstehen. Die „Digitale Gesellschaft“ betont, dass nur eine gut informierte Öffentlichkeit die Entwicklung von KI in eine Richtung lenken kann, die den Werten und Bedürfnissen der Gesamtgesellschaft entspricht.
Wir alle können einen Beitrag leisten, indem wir uns aktiv über KI informieren und an öffentlichen Diskussionen teilnehmen. Es geht darum, nicht nur passiv zuzusehen, sondern aktiv mitzugestalten, welche Art von KI wir in unserer Gesellschaft haben wollen. Ob durch Teilnahme an öffentlichen Diskursen, das Teilen von Wissen in sozialen Medien oder Engagement in Initiativen und Organisationen – jede und jeder kann dazu beitragen, die Zukunft der Technologie verantwortungsvoll mitzugestalten.
Gesetzliche Rahmenbedingungen: Der aktuelle Stand und die Forderungen
In vielen Ländern gibt es bereits gesetzliche Rahmenbedingungen für den Einsatz von ADM-Systemen, doch oft sind diese Regelungen lückenhaft und erfassen nicht alle Risiken. Für die Schweiz fordert die „Digitale Gesellschaft“ deshalb ein umfassendes „ADMS-Gesetz“, das speziell auf die Herausforderungen automatisierter Entscheidungssysteme zugeschnitten ist. Dieses Gesetz sollte nicht nur die Transparenz- und Sorgfaltspflichten definieren, sondern auch Sanktionen bei Verstössen festlegen.
Eine wesentliche Forderung ist die Einführung einer unabhängigen Aufsichtsbehörde, die den Einsatz von ADM-Systemen überwacht und sicherstellt, dass die gesetzlichen Vorgaben eingehalten werden. Diese Behörde soll nicht nur auf Beschwerden reagieren, sondern auch proaktiv agieren, um Missstände aufzudecken und zu verhindern. Mit einer Kombination aus gesetzlichen Regelungen, öffentlicher Kontrolle und ethischen Standards könnte sichergestellt werden, dass KI-Systeme im Einklang mit den Grundrechten und dem Wohl der Gesellschaft genutzt werden.
Gemeinsam die Kontrolle behalten
Die Entwicklung von Künstlicher Intelligenz bietet grosse Chancen, stellt uns aber auch vor Herausforderungen, die wir als Gesellschaft aktiv angehen müssen. Durch klare Regeln, geförderte Transparenz und geteilte Verantwortung können wir die Kontrolle über die Entwicklung von KI behalten. Es liegt an uns allen, sicherzustellen, dass diese Technologie zum Wohl der Gesellschaft und nicht zum Selbstzweck genutzt wird.
In diesem Sinne: Beteiligen Sie sich an den bereits laufenden Diskussionen oder starten wir gemeinsam eine neue! Gerne kommen wir auch in Ihr Unternehmen oder Ihre Organisation für einen Sensibilisierungs-Workshop rund um KI.