Ellen Broad fasst sehr gut die aktuelle Diskussion rund um “schwache künstliche Intelligenz” aus einer gesellschaftspolitischen Perspektive zusammen und schlägt Ansätze zum verantwortungsvollen Umgang damit vor. Themen sind u.a Privacy, Bias/Diskriminierung und Ethik. Ihre Empfehlungen fokussieren auf Verbesserung der Nachvollziehbarkeit, erhöhter Einbezug diverser Akteure und Perspektiven, sowie der Festlegung von Verantwortlichkeiten für beteiligte Akteure (z.B. Politik, Unternehmen, Entwickler, Nutzende). Spannend sind gerade auch ihre persönlichen Erfahrungen als Aktivistin für netzpolitische Anliegen. Das Buch empfehle ich Personen die sich für einen Einstieg in die aktuelle netzpolitische Debatte interessieren.
Folgende vier Erkenntnisse waren für mich besonders interessant:
Betrachte auch die Geschichte der genutzten Daten
Daten werden in einem Kontext gesammelt. Innerhalb von Organisationen legen Menschen fest, welche Daten es Wert sind wie kategorisiert zu werden und welche nicht. Die genutzte Kategorisierung wiederum, beeinflusst die möglichen Schlussfolgerungen. Am Beispiel der Radiologie erklärt sie, dass man nicht einfach die Notizen von Ärzten zu Röntgenbilder nutzen kann, um Diagnosen mittels „Image-Recognition“ zu automatisieren. So beschreiben Ärzte nicht nur was sie sehen, sondern was nützliche Informationen sind für den nächste Behandlungsschritt. Unter Umständen beschreiben sie also nicht den Inhalt des Röntgenbildes, sondern was der nächste Arzt wissen sollte. Blind die vorhandenen Daten und Notizen zu nutzen ist deshalb aus ihrer Sicht gefährlich. Wir müssen genauer hinsehen und den Kontext der Daten verstehen, damit wir die Kontrolle über den Einsatz zurückgewinnen. Sie schreibt deshalb: „An AI’s decision can shape what’s perceived to be real. And so making the contours of a data set—its history, its flaws and inconsistencies, the human fingerprints on it—visible beneath the sleek exterior of an AI is a big part of how we wrest back control of reality.“
Erhöhe die Nachvollziehbarkeit mit abgestufter Openess
Aber wie genau soll man das machen? Für den ersten Schritt hat sie einen sehr interessanten Vorschlag für eine abgestufte Openess. Damit kann man klarer definieren, welche Anforderungen für Openness beim Einsatz von „schwacher künstlicher Intelligenz“ in welchem Fall gelten sollen . Die drei Stufen sind:
- Offenheit über Daten, welche vom System für das „lernen“ verwendet wurden
- Offenheit über verwendete „KI“-Methoden und gesetzte Annahmen
- Offenheit des Codes, wie bei Open Source. Damit wird nicht nur Transparenz gewährleistet, sondern auch die Nachvollziehbarkeit erhöht.
Wobei man das nicht nur Einzelnen überlassen soll, d.h. immer mehr Akteure müssen einbezogen werden: „Intelligibility of AI cannot just be left to organisations and practitioners designing AI. Mechanisms for improving intelligibility should envisage the growth of a range of intermediaries to help people understand the impact of automated systems as well.“
Begleitete eng die Automatisierung der Verwaltung
Ein grosses Potential von “schwacher künstlicher Intelligenz” findet sich in Verwaltungen. Sie erklärt im Buch mit konkreten Beispielen Vor- und Nachteilen, wenn Entscheide von Verwaltungen an automatisierte Systeme delegiert werden. Sie beobachtet die Tendenz, dass die Verantwortung zunehmend an Betroffenen delegiert wird und auch der Handlungsspielraum, sowie die Anzahl möglicher Varianten eingeschränkt wird. Das kann Vorteile haben und beispielsweise zu besserem Zugang führen und sogar gerechter sein. Es kann aber auch Nachteile haben, wenn Vorurteile automatisiert oder gewisse wichtige Optionen, die für eine Gruppen oder Einzelne relevant sind, nicht mehr vorhanden sind. Betroffene können sich dann häufig nicht gegen automatisierte Systeme wehren und ihr Recht einfordern. Spannend sind gerade ihre Beispiele zur Benachteiligung von Aborigines in Australien aufgrund fehlender Daten in bestehenden Datenbanken über die Aborignes. Wer nicht im System mit den richtigen Daten drin ist, hat allenfalls weniger Rechte. Sobald man jedoch im System drin ist, besteht die Gefahr das die Daten zweckentfremdet werden und für andere Prozesse genutzt werden. Oder wie sie sagt: „But intentions can change. Data that is collected from a person for a truly beneficial purpose can end up being used to harm them. This is something privacy advocates have long been wary of: that more data-driven, integrated government services, while having benefits, at the same time expose people to greater surveillance, to potentially increased algorithmic profiling and discrimination.“
Reguliere nicht die Technik, sondern lege die Verantwortlichkeiten fest
Sie hinterfragt aktuelle Vorschläge, wie beispielsweise eine Selbstregulation der Branche, überzogene Erwartungen an Ethik-Boards, Unklarheit oder vordefinierte und zu fixe Regulationen. Sie fordert vielmehr eine vertiefte Auseinandersetzung entlang folgender Fragen: „The appropriate questions to ask are questions like: ‘Should people be able to understand and challenge automated decisions made about them?’,‘ How can they do that?’ and ‘In what contexts?’; ‘Should system designers be held accountable for statements about the accuracy of their decision-making systems that aren’t true?’; ‘Should they be accountable for error and bias?’ and ‘In what circumstances?’; ‘What can they do to avoid being held accountable?’ and ‘What standards should they follow?’“ Dahinter steckt auch die Frage, wie man diejenigen reguliert, welche die Regeln festlegen und welche Verantwortung oder sogar Haftbarkeit Verwaltungen, Unternehmen oder Lösungsanbieter haben.