Sollen wir und falls ja, können wir Maschinen konstruieren, welche selbst moralische Entscheide treffen? Das ist die Grundfrage der klar strukturierten Einführung von Catrin Misselhorn zur Ethik für Maschinen. Anhand der dre unterschiedlichen normativen Ansätze Utilitarismus, Kantsche Ethik und Tugendethik werden Fragen zur moralischen Handlungsfähigkeit von Maschinen diskutiert. Betrachtet wird vorwiegend die “schwache” künstliche Intelligenz und nicht die Spekulationen einer baldigen Singularität.
Wenn wir nun Maschinen mit moralischen Fähigkeiten ausstatten wollen, dann empfiehlt Misselhorn zwischen drei Standpunkten zu unterscheiden: intentionalen Standpunkt, Designstandpunkt und physikalischen Standpunkt. Aus Entwicklungsperspektive interessiert insbesondere der Designstandpunkt, da je nach unterschiedlichem Ansatz (Utilitarismus, kantsche Ethik oder Tugendethik) andere Lösungen angestrebt werden. Das Nutzenprinzip (Utilitarismus) hat den Vorteil, dass man grundsätzlich eine beste Bilanz aus Lust und Leid für alle Betroffenen berechnen kann. Die vorhandenen Komplexität verhindert jedoch eine detaillierte Beschreibung aller relevanten Aspekte einer Situation und erschwert die Nutzung des Utilitarismus. Ein Ausweg bieten Heuristiken, wobei empfohlen wird sich auf Regeln abzustützen, welche den Gesamtnutzen maximieren und nicht einzelne Handlungen. Die Nutzung der kantschen Ethik, insbesondere der kategorische Imperativ “Handle nur nach denjenigen Maxime, durch die zugleich wollen kannst, dass ein allgemeines Gesetz werde”, erscheint noch schwieriger und es stellt sich die Frage, ob sie überhaupt für eine Maschinenethik geeignet ist. Gemäss Kant müssen moralische Akteure sich selber Zwecke setzen. Die Voraussetzung ist bei Maschinen aktuell nicht gegeben. Während Utilitarismus und Kantsche Ethik Top-Down Ansätze sind, bietet die Tugendethik die Möglichkeit eines Bottom-Up Ansatzes. Der Fokus ist auf dem Lernen durch Training und nicht auf abstrakten Theorien. Ein Ansatz der für neuronale Netze geeignet ist. Dazu werden aber gute Trainingsdaten benötigt, um nicht bestehende Vorurteile in Maschinen abzubilden und zu verstärken. Die Erläuterungen fördern eine fundierte Reflektion zur Implementation von Moral in Maschinen. Die Designstandpunkt bietet jedoch wenig konkrete Handlungsanweisungen, wie und wann man während der Entwicklung einer “Maschine” moralische Aspekte implementiert.
Da Fragen zu Ethik für Maschinen nur bezogen auf spezifische Anwendungskontexte beantwortet werden können und nicht auf einer allgemeine Ebene, werden Anwendungskontexte wie Pflegeroboter, automatischen Waffensysteme oder selbstfahrende Fahrzeuge beschrieben. Es fokussiert nicht nur auf Risiken, sondern auch auf Potentiale. Beispielsweise kann der Paternalismus-Einwand bei der Implementation von Moralvorstellungen entschärft werden, wenn wir Systeme entwickeln die sich den Moralvorstellungen des Nutzers anpassen (Beispiel: Pflegeroboter respektiert Vorstellungen des Patienten zur Einnahme von Medikamenten und gibt sich flexibler als eine “sture” Pflegeperson oder ein “harter” Wecker).
Das Buch empfiehlt sich für Personen die genug haben von der häufig oberflächlich geführten Debatte rund um Ethik und Technologie und an einer philosophischen Herangehensweise interessiert sind.
(Auch veröffentlicht auf Goodreads https://www.goodreads.com/book/show/41015065)