Direktiven für intelligente Algorithmen
Ich erinnere mich noch lebhaft an einen Flug von Johannesburg nach Kapstadt. Nach der Landung meldete sich der Kapitän: „Meine Damen und Herren, Sie sind soeben Zeuge einer automatischen Landung unseres Flugzeugs geworden.“ Mir war unwohl. Hätte ich diesen Flug genommen, wenn man mir beim Check-in gesagt hätte, dass wir heute automatisch landen werden? Ich halte mich für Technik-affin und habe selbst Software entwickelt. Aber gerade darum weiß ich, dass Programme Fehler machen und dass Computer die unliebsame Eigenschaft haben, gerade im entscheidenden Moment abzustürzen, weil sie eine Fehlersituation nicht beherrschen.
Das sind mehr als 20 Jahre her und diese Art Software, Assistenzsysteme unter Kontrolle von Menschen, setzen wir mittlerweile auch im Alltag ein. Mit großer Selbstverständlichkeit benutzen wir das Navi in unserem Auto und ärgern uns dann, wenn es uns zur Vermeidung eines Staus auf eine Ausweichroute geführt hat, in der wir erst recht im Stau stehen, weil alle anderen Fahrer auch dem Rat ihrer Navis gefolgt sind. Wir sind der Technik gefolgt und nicht unserem eigenen Vorwissen oder Bauchgefühl. Aber immerhin hatten wir die Freiheit selbst zu entscheiden.
Bei den heutigen intelligenten Algorithmen ist das zunehmend nicht mehr der Fall. Um es gleich vorweg zu nehmen, egal ob es sich um lernenden Systeme, die anhand von massenhaft gesammelten Daten trainiert werden oder ob sie selbständig mittels neuronaler Netzwerke weiter lernen, es handelt sich nicht um höhere Wesen. Es sind mathematische Objekte der Statistik und der linearen Algebra. Sie verwerten Daten, die fortwährend von uns abgesaugt werden, wissentlich oder unwissentlich, freiwillig oder unfreiwillig. Wo laufen diese Daten hin? Welche Auswirkung hat ein Facebook like für mein zukünftiges Leben? Im Hintergrund sind große Datenspeicher aktiv. Dort lauert unser „digitales Schicksal“. Permanent arbeiten Auswerte- und Analyseprogramme daran Profile über uns anzulegen, die dann in Entscheidungen einfließen.
Diese kommen dann beim Online-Shopping in Form von Recommender-Systemen zurück und nicht immer sind sie neutral und frei von Annahmen, die über uns getroffen werden. Neuerdings hält Apple ein Patent zum Thema “vorausschauendes Liefern”: Waren sollen auf den Weg gebracht werden, noch bevor der Kunde auf “Kaufen” geklickt hat. Aus Suchanfragen ermitteln Algorithmen, was Menschen demnächst kaufen wollen. Es gibt zudem die Vermutung, dass Produkte einer höheren Preiskategorie vorgeschlagen werden, weil man hinter dem bisherigen Kaufverhalten des Benutzer, der zudem seine Bestellung mit einem Apple MacBook Pro aufgegeben hat, einen zahlungskräftigen Kunden vermutet. Oder, dass eine Zahlung per Kreditkarte verweigert wird, weil der Kunde eine Adresse angegeben hat, die prekäre Lebensumstände vermuten lässt.
Intelligente Algorithmen entscheiden bei Einstellverfahren darüber, wer die Stelle erhält und sie entscheiden bei Kreditvergabe über die Konditionen.
Intelligente Algorithmen, die vorurteilsfrei und nicht diskriminierend entscheiden, sich also an ethische Normen halten, sind sowohl Gegenstand der öffentlichen Kritik und Wahrnehmung als auch der Forschung. Es zeigt sich, dass diese Algorithmen für sich genommen wertfrei sind. Sie bilden lediglich aufgrund der zur Verfügung stehenden Daten die Verhältnisse unserer Gesellschaften ab. Sie verstärken die positiven und negativen Aspekte und machen diese auf eine bisher nie gesehene Art sichtbar. Ist es daher nicht an der Zeit Transparenz zu schaffen und eine Rechenschaftspflicht zu fordern?
Statement on Algorithmic Transparency and Accountability.
Genau diesen Fragen hat sich die ACM angenommen. In einer gemeinsam verabschiedeten Direktive des ACM US Public Policy Council und des ACM Europe Council werden sieben Prinzipien für Algorithmen gefordert. Die ACM bezieht sich dabei auf ihre eigenen ethischen Normen und sieht sich hier als unparteiischer Vermittler zwischen den Handelnden: den Forschern, Ingenieuren, der Öffentlichkeit und dem Gesetzgeber.
- Bewusstsein
Alle Verantwortlichen sind aufgerufen Bewusstsein darüber zu schaffen, dass Algorithmen Fehler haben können und zu Schlussfolgerungen kommen, die diskriminierend sind, Vorurteile verstärken und Freiheitsrechte verletzen. - Zugang und Wiedergutmachung
Regulierungsbehörden werden aufgefordert dafür zu sorgen, dass Mechanismen geschaffen werden, die es ermöglichen, dass Entscheidungen die auf Algorithmen beruhen, hinterfragt werden können. Falls Gruppen dadurch benachteiligt werden, müssen sie entschädigt werden. - Rechenschaftspflicht
Institution müssen dafür verantwortlich gemacht werden für die Entscheidungen durch Algorithmen, die sie verwenden. Dies trifft selbst für den Fall zu, dass es nicht möglich ist im Detail zu erklären, wie diese Algorithmen ihre Resultate erzeugt haben. - Erklärungspflicht
Institutionen, die zur Entscheidungsfindung Algorithmen verwenden, werden aufgefordert die dafür verwendeten Prozeduren offenzulegen. Dies betrifft die Arbeitsweise der Algorithmen und die getroffenen Entscheidungen. Dies ist besonders wichtig im Bereich der öffentlichen Ordnung. - Herkunft der Daten
Von den Entwicklern lernender Algorithmen wird gefordert, dass sie die Herkunft und Beschaffenheit der Trainingsdaten dokumentieren. Diese müssen auch eine Analyse vornehmen im Hinblick auf mögliche Vorurteile, die der menschliche oder maschinelle Prozess der Datenerfassung beinhaltet. Eine öffentliche Überprüfung dieser Daten bietet eine maximale Gelegenheit zur Korrektur. Geschäftsgeheimnisse oder der Schutz persönlicher Daten sowie die Offenlegung der Analytik, die von Angreifern verwendet werden könnte, steht dem möglicherweise entgegen. Sie rechtfertigt dann die Überprüfung ausschließlich durch dafür öffentlich verpflichtete Experten. - Überprüfbarkeit
Modelle, Algorithmen und deren Entscheidungsfindung müssen revisionsfähig dokumentiert werden, damit im Fall von vermuteten Schäden eine Revision stattfinden kann. - Validierung und Test
Institutionen sollten ihre Modelle durch rigorose Tests validieren und die Resultate dokumentieren. Diese Tests sollten routinemäßig wiederholt werden, um sicherzustellen, dass die Modelle keine diskriminierenden Schäden anrichten. Institutionen werden angehalten, diese Testergebnisse zu veröffentlichen.
Noch spielen sich viele Geschehnisse mit intelligenten Algorithmen im weitgehend rechtsfreien Raum ab – eine erste Gegenwehr findet sich in der neuen EU Datenschutz-Grundverordnung. Zur Realisierung der oben genannten Prinzipien liegt ein weites Feld der Forschung vor uns.
Referenz:
https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf