Die Anwendungsmöglichkeiten von Künstlicher Intelligenz (KI) scheinen endlos und rechtfertigen die Begeisterung von Unternehmen und Regierungen gleichermaßen. Doch das Versprechen, die Effizienz zu verbessern, Kosten zu senken und Forschung und Entwicklung zu beschleunigen, wurde in letzter Zeit durch die Sorge getrübt, dass dieses komplexe, undurchsichtige System der Gesellschaft mehr schaden als nützen könnte. Die Eurogroup Consulting hat eine Studie durchgeführt, die in den Handlungsbereichen Politik & Strategie, Organisation, Konzeption von Algorithmen sowie Kommunikation & Ökosystem aufzeigt, wie man sich dieses Themas annehmen kann.
In den vergangenen Jahren haben mehrere öffentlichkeitswirksame Vorfälle die Risiken einer Voreingenommenheit durch KI-Anwendungen offenbart und somit gezeigt, dass Unternehmen und öffentliche Institutionen die ethische Komponente von KI tendenziell stark unterschätzen würden. Unternehmen und öffentliche Institutionen werden daher zunehmend in die Pflicht genommen, ernsthaft über die ethischen Dimensionen ihres Handelns nachzudenken und sicherzustellen, dass die Technologie im Einklang mit den eigenen Werten der Organisation steht und die Werte der Gesellschaft als Ganzes respektiert. Doch wie können Unternehmen und öffentliche Institutionen KI unter Beachtung von ethischen Prinzipien einsetzen?
KI entfacht ethische Diskussionen und Herausforderungen
Trotz der Euphorie rund um die technischen Möglichkeiten von KI, werden zudem nun verstärkt auch ethische Bedenken laut, gerade weil KI in immer mehr Branchen eine größere Rolle bei der Entscheidungsfindung übernimmt. Beispielsweise setzen einige US-Strafrichter KI seit 2016 als Entscheidungskompass ein, welches zu einer unfairen Behandlung bestimmter Personengruppen führte. Die Software habe das Rückfallrisiko für Afroamerikaner systematisch übergewichtet und somit die Problematik der Diskriminierung aufgeworfen. In den USA führten Bürgerproteste gegen rassistische Polizeiarbeit und Strafverfolgungsbehörden dazu, dass Microsoft, Amazon und IBM im Juni 2020 ankündigten, die Vermarktung von Gesichtserkennungssoftware an US-Strafverfolgungsbehörden auszusetzen und forderten vorab ein Bundesgesetz zur Regulierung von Gesichtserkennungstechnologie. Der öffentlichen Meinung zufolge besteht die Gefahr der Verselbstständigung, der Massenüberwachung (bspw. durch Gesichtserkennung), der Diskriminierung und Ausgrenzung sowie der Verletzung der individuellen Freiheitsrechte. Zudem besteht das Risiko, dass KI für Zwecke eingesetzt werden kann, die sowohl dem Gesetz als auch den in einer Gesellschaft allgemein akzeptierten moralischen Regeln zuwiderlaufen.
Studie zur Erfassung der Wahrnehmung von KI-Ethik in Organisationen durch Eurogroup Consulting
Um herauszufinden, inwieweit die ethischen Fragen rund um Künstliche Intelligenz in Organisationen verankert sind, führte Eurogroup Consulting in Frankreich eine Studie durch. Interviewt wurde ein Dutzend unter anderem hochrangiger Mitarbeiter in öffentlichen und privaten Organisationen unterschiedlicher Größe und verschiedener Sektoren, die in unterschiedlichen Bereichen Anwendungen der Künstlichen Intelligenz im Einsatz haben. Die Befragten hatten verschiedene Positionen innerhalb ihrer Organisation inne: Mitglied des Managements, Ethik-Manager, Mitglied der Abteilung Informationssysteme, etc. Das Profil der befragten Personen ermöglichte es somit, von der Vision einer Vielzahl von Akteuren, mit unterschiedlichen Wahrnehmungen und Reifegraden sowohl in Bezug auf Ethik als auch auf Künstliche Intelligenz zu profitieren.
Die Studienergebnisse zeigten folgende vier Erkenntnisse:
- Ethische Risiken im Zusammenhang mit KI sind zwar bekannt, aber werden als gering angesehen.
- In Organisationen herrscht ein Mangel an organisatorischer Reife bei der Berücksichtigung von ethischen Fragen der KI.
- Technische Einrichtungen zur Reduzierung ethischer Risiken sind nicht ausgereift.
- Es herrscht eine schwache Kommunikation rund um KI-Ethik mit Kunden, Mitarbeitern und dem Ökosystem.
Handlungsempfehlungen
Gesetzliche Regelungen zur Schaffung eines Ethikrahmen für KI sind sinnstiftend aber keinesfalls ausreichend, um die ethischen Risiken im Umgang mit Künstlicher Intelligenz in den Griff zu bekommen. Das Gesetz stößt an seine Grenzen in der Unfähigkeit, die Auswirkungen digitaler Technologien zu antizipieren. Dies bedeutet, dass durch kontinuierliche Weiterentwicklung der Technik der KI stets ein gewisser Handlungsspielraum für die Selbstregulierung von Verhalten und Nutzung zur Verfügung steht.
Auf der Grundlage unserer Recherchen und der Interview-Ergebnisse haben wir klare Handlungsempfehlungen zur Einführung und Verankerung von Ethik in der Künstlichen Intelligenz formuliert. Sie werden in den vier Kategorien „Politik und Strategie“, „Organisation“, „Konzeption von Algorithmen“ sowie „Kommunikation & Ökosystem“ eingeteilt. Diese Handlungsempfehlungen bieten eine Reihe von Best Practices, die je nach den Besonderheiten jeder Organisation, ihrer Funktionsweise und ihrem Reifegrad in Bezug auf Künstliche Intelligenz anwendbar sind.
Handlungsbereich „Politik und Strategie“:
- Aufklärungsgespräche mit Kunden und Mitarbeitern zu den ethischen Fragen der KI durchführen.
- Das Top-Management der Organisation stets über die ethischen Herausforderungen der KI informieren.
- Die Erstellung einer ethischen Charta, in der die für KI geltenden ethischen Richtlinien definiert sind.
- Sensibilisierung aller Mitarbeiter, die an Projekten mit Algorithmen beteiligt sind
- Einführung und Einhaltung von ethischen Richtlinien bei der Entwicklung, Beschaffung und Nutzung von KI-Lösungen
Handlungsbereich „Organisation“:
- Behandlung des Themas KI-Ethik in einem relevanten Management-Gremium
- Kulturell gemischte Entwicklerteams ermutigen
- Verantwortungsbewusstsein und -bereitschaft der KI-Produktentwickler stärken
- Das Wissen und die Praktiken rund um KI-Ethik auf dem neuesten Stand halten.
Handlungsbereich „Konzeption von algorithmischen Lösungen“:
- Einfügung von „Ethics by Design“-Anforderungen von Anfang an in die Entwicklung der Lösung
- Qualitätskontrolle der Daten vor ihrer Verwendung für das Design und die Einführung einer KI
- Daten während des gesamten Produktlebenszyklus auditieren
- Laufendes Überwachen der ethischen Konformität von Lösungen
Handlungsbereich „Kommunikation & Ökosystem“:
- Integrieren der KI-Ethik in die Kommunikation der Organisation
- Implementieren eines Transparenz- und Erklärungsmechanismus für den Algorithmus
- Förderung von Diskussionen zum Thema KI-Ethik in Fachkreisen
Diese Handlungsansätze bieten wertvolle Grundlagen für Organisationen und öffentliche Institutionen, um auf Mikroebene das Vertrauen und die Akzeptanz der Anwender und Kunden zu erhöhen und um sich letztendlich vor Reputationsrisiken und Imageschäden zu schützen.
Auf Makroebene hat Europa hat eine weltweite Vorreiterrolle beim Schutz des Grundrechts des Datenschutzes eingenommen. Die EU-Kommission setzt sich aktiv für eine weltweite Regulierung der Anwendung von KI ein, um die Sicherheit und Grundrechte der Menschen zu gewährleisten. Ziel des vorgelegten Gesetzespakets ist es, einerseits das Vertrauen der Menschen in die KI zu schöpfen und andererseits der Wirtschaft einen sicheren Rahmen für Investitionen in die neue Technologie zu bieten.
Im Sinne der Nachhaltigkeit besteht ein starker Konnex zwischen der KI-Ethik und dem ESG-Ansatz (Environmental, Social, Governance), welcher eine immer größere Bedeutung für das Risikomanagement von Unternehmen aller Branchen bekommt und zunehmend zur regulatorischen Pflicht wird. Unternehmen sind heute verpflichtet, nachhaltig zu wirtschaften. Anhand des ESG-Ansatzes lässt sich prüfen, wie nachhaltig und verantwortungsvoll Unternehmen arbeiten. Die im ESG verankerten Governance-Themen regeln Aspekte der Unternehmensführung, unter anderem Unternehmensethik, daraus abgeleitet ist die Problematik der KI-Ethik von besonderer Relevanz. Ähnlich wie beim ESG-Ratingverfahren können Unternehmen im Hinblick auf KI-Ethik Bewertungsverfahren einführen und nutzen, um eine möglichst objektive Beurteilung des eigenen Engagements für nachhaltige Geschäftspraktiken zu ermöglichen. Dabei kann es sinnvoll sein, die Governance-Risiken zu antizipieren, indem KI-ethische Risikofaktoren im strategischen und operativen Risikomanagement berücksichtigt werden; bspw. durch Einführung neuer Risikokennzahlen.
Fazit
Der Entwicklung und Nutzung von KI-basierte Systeme stellen sich zunehmend rechtliche und ethische Fragen, die darauf abzielen, dass KI im Dienst der Menschheit entwickelt, bereitgestellt und genutzt wird. Die Erreichung dieses Vorhaben kann vor allem durch die Sensibilisierung in Organisationen sowie durch die Einführung von ethischen Richtlinien und einer regulierenden Aufsicht geschehen.