Können und sollen Maschinen moralisch handeln?

Unser BB Hasselhoff hat in einem nachdenklich machenden Burschenvortrag Im November 2018 deutlich gemacht, welche Herausforderungen mit der rasanten technischen Entwicklung durch KI und den entstehenden Technologien einhergehen und wie wir regelrecht dazu gezwungen werden, uns auch immer mehr mit der ethischen Sichtweise auseinanderzusetzen. Hier nur einige seiner Kernaussagen, der komplette Text findet sich im nächsten Staufenkurier:
Starke Künstliche Intelligenz ist heute zum Großteil noch hypothetisch, dennoch bildet sie die Diskussionsgrundlage in der Maschinenethik und auf dem Weg zur Künstlichen Moral. Die Überlegungen der Maschinenethik beginnen in den 50er Jahren und beschäftigen sich mit dem Verhalten von Maschinen und deren Möglichkeiten. Springt man in diese Zeit zurück, so lässt sich unsere heutige Problematik der Künstlichen Moral besser veranschaulichen.
Die Ethik oder Sittenlehre beschäftigt sich bis dahin mit der Bewertung des (menschlichen) Handelns, welches auf der Moral des Einzelnen und dessen Normen und Werten basiert. Das Verhältnis von Mensch und Maschine wurde immer analog zur Mensch-Tier-Beziehung betrachtet. Während der Mensch, durch seine Fähigkeit Moral zu beurteilen und zu hinterfragen, als Subjekt der Moral gilt, werden Tiere als Objekte der Moral gesehen. Wenn ein Hund ein Kind beißt, so wird das Tier oft als „böser Hund!“ bezeichnet. Wir, die diese Handlung als schlecht werten, setzen automatisch eine Absicht oder einen Willen des Tieres voraus, während das Tier selbst nur eine Bedrohung wahrnimmt und sich instinktiv verteidigt. Um das Jahr 2000 kommen Fragen auf, inwieweit Maschinen wirklich nur Objekte der Moral sind und ob sie nicht als Subjekte betrachtet werden müssen. Es geht grundlegend um die Fragestellung: Können und sollen Maschinen moralisch handeln?

Bildet man die Schnittmenge der Gebiete Informatik, Maschinenethik und Philosophie, dann gelangt man zum Gebiet der Künstlichen Moral, englisch Artificial Morality. Am Beispiel des autonomen Fahrens kann jetzt das Dilemma von gänzlich autonom handelnden Maschinen gezeigt werden. An dieser Stelle muss nochmals darauf hingewiesen werden, dass wir uns heute noch weit entfernt vom autonomen Fahren befinden. Auch das automatisierte Fahren ist in Deutschland, anders als in China oder den USA, noch nicht möglich. Wir befinden uns auf der Vorstufe, dem unterstützten Fahren, bei dem uns Systeme wie Tempomat und Spurhalte- oder Toter-Winkel-Assistent unterstützen. Der Fahrer ist jederzeit für das Fahrzeug verantwortlich und wird durch die Technik lediglich unterstützt. Beim autonomen Fahren, dem großen Ziel, kann der Fahrer die Fahrzeugführung komplett abgeben und wird zum Passagier. Der Einsatz automatisierter und später autonomer Systeme stellt unsere Gesellschaft deshalb auf die Probe, da wir unsere Aussagen nicht auf Gedankenexperimente beziehen, sondern auf wirkliche Situationen, aus denen nicht nur theoretische Folgen resultieren.

Wie lösen wir aber ein unmöglich zu lösendes Problem? Auch hier bietet die Philosophie Ansätze: Ansichten und philosophische Modelle können sich ändern, einfacher ist aber das Eingehen eines faustischen Pakts, um die aufkommenden Probleme zu umgehen. Bei diesem Pakt bleibt der sogenannte Pferdefuß (das wirkliche Problem) durch Verdrängen der Risikopotentiale lange verborgen. Ein einfaches Beispiel ist die Kernenergie. Wissentlich wurde das Problem der Endlagerung und das Risiko radioaktiver Verseuchung im Katastrophenfall, wie in Tschernobyl oder Fukushima, hingenommen und verdrängt, um die Vorzüge der Technologie zu nutzen. Die gleiche Vorgehensweise wenden wir im Bereich des automatisierten und des autonomen Fahrens an. Je realer der Bezug dann wird, desto größer werden auch die Probleme.

Die Ergebnisse der Ethikkommission gelten bisher explizit nur für automatisiertes Fahren. Die vier grundlegenden Aussagen der Kommission sind: Es muss eine defensive Fahrweise programmiert werden, Sachschaden ist Personenschaden immer vorzuziehen, es darf keine Qualifizierung von Menschen erfolgen und es muss eine konstante Dokumentation und Weitergabe der Daten gewährleistet sein. Während man Fehler einzelner Personen als menschliches Versagen titulieren kann, so ist diese Ausflucht im Bereich der Künstlichen Moral ausgeschlossen. Jede Moral ist eine programmierte Moral. Eine Maschine kann sich dadurch nicht „nicht entscheiden“, da jede Aktion oder Reaktion vorgegeben ist. Der technische Fortschritt und die Entwicklung der Systeme zwingen uns, unsere Karten auf den Tisch zu legen und diese gigantische Aufgabe der Künstlichen Moral anzugehen.

Schreibe einen Kommentar