Dieser Artikel entstammt der aktuellen Ausgabe von «GDI Impuls». 

Von Christian Rauch

Sie tragen ein Laser-Radargerät auf dem Dach und haben die weltweite Autoindustrie tüchtig erschreckt – Googles «self-driving cars». Seit 2010 haben sie über eine halbe Million Meilen zurückgelegt, ohne dass die Robotik einen Unfall verursacht hätte. In vier amerikanischen Bundesstaaten – Nevada, Florida, Kalifornien und Michigan – existieren mittlerweile Gesetze, welche die Nutzung automatischer Autos, wie die von Google, für Testzwecke regulieren. Für einen kommerziellen Massenmarkt sind die rechtlichen Grundlagen noch nicht in Sicht, doch juristische Überlegungen dies- und jenseits des Atlantiks zeigen wenig substanzielle Hürden.

Die technologische Entwicklung läuft ohnehin auf Hochtouren. Mittlerweile arbeiten alle namhaften Hersteller an automatischen Fahrfunktionen. Beginnend mit dem Einpark- und Stauassistenten, werden in den nächsten Jahren mehr und mehr Fahrsituationen in die Kontrolle von Maschinen übergehen. Vollautomatisches Fahren scheint in gut zehn Jahren realistisch – auf der Autobahn, zumindest eingeschränkt auch auf anderen Strassen. Ziehen Ingenieure und Juristen, Hersteller und Politik an einem Strang, könnte das automatische Fahren goldenen Zeiten entgegengehen: Die Unfallzahlen sollen deutlich sinken, der Verkehr soll besser fliessen, und der Autofahrer kann die freie Zeit nutzen, Zeitung lesen oder mit dem Laptop arbeiten.

AUTOMATISCHE INTUITION?

Doch ein Thema bereitet echtes Kopfzerbrechen. Was, wenn ein automatisches Auto über Leben und Tod entscheiden muss? So wie im folgenden fiktiven Fall: Ein Kind springt von einer Strasseninsel auf die Fahrbahn, zwei Erwachsene versuchen es vergeblich festzuhalten. Der Bremsweg ist zu gering, eine Kollision unvermeidlich. Fährt das Auto nun in die Erwachsenen links, in das Kind oder an den Baum am rechten Strassenrand, was die eigenen Insassen gefährden würde? Ein menschlicher Fahrer würde in den Sekundenbruchteilen, die ihm bleiben, nur intuitiv entscheiden können. Das automatische Fahrzeug hingegen könnte alle Umgebungsdaten erfassen und die möglichen Handlungsalternativen und ihre Schadensfolgen berechnen.

Könnte es dann nicht moralischer handeln? «Es könnte durchaus», findet Oliver Bendel. Der Philosoph und Wirtschaftsinformatiker ist Professor an der Fachhochschule Nordwestschweiz und hat zahlreiche Beiträge zur Maschinenethik veröffentlicht. «Wobei sich zunächst die Frage stellt, nach welchen Modellen die Maschine entscheiden soll. Eine grundlegende Regel könnte ähnlich wie das erste Robotergesetz von Isaac Asimov lauten: «Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.» Der Rahmen wäre hier die Pflichtethik. Wenn aber, wie in dem hier konstruierten Fall, das Verletzen oder Töten nicht zu vermeiden ist, könnte man sich im Rahmen der Folgenethik bewegen. Wenn die Maschine die Folgen schnell und fundiert beurteilt, ist ihre Handlung vielleicht in einem gewissen Sinn tatsächlich moralischer.» Spätestens an diesem Punkt gerät die Maschine allerdings in ein Dilemma. Sie kann berechnen, welche Leben durch sie jeweils wie stark gefährdet werden. Doch welche Leben sind wertvoller? Die der Menschen im Fahrzeug oder die da draussen, die Leben der Erwachsenen oder das des Kindes?

Zugegeben – der Fall erscheint etwas konstruiert, ist von der Realität, in der sich heute die Google-Cars bewegen, weit entfernt und wird angesichts der langfristigen Roadmap automatischer Autos so schnell wohl auch nicht eintreten. Doch die ethischen Fragen rund um das automatisierte Fahren liegen näher, als viele denken. Schon vor knapp zehn Jahren wies der Wirtschaftsethiker Karl Homann im Buch «Fahrerassistenzsysteme mit maschineller Wahrnehmung» auf die Probleme hin, die auftreten, wenn automatische Fahrfunktionen versagen und neue Unfälle verursachen sollten. «Was hilft mir der ‹gesellschaftliche Nutzen›, wenn ich unter den ‹neuen› Schadensfällen bin?», schrieb Homann und warnte vor den Regressforderungen der von einem solchen Unfall Betroffenen sowie dem Image- und Reputationsverlust, den ein Hersteller ereilen würde.

GEWISSENHAFTE CHATBOTS

Mittlerweile, ein Jahrzehnt später, sind weitreichende Assistenzsysteme wie der Notbremsassistent in immer mehr Fahrzeugen im Einsatz. Eine Fehlfunktion ist aus technischer Sicht zwar sehr unwahrscheinlich, jedoch prinzipiell nicht ausgeschlossen – jede Technik kann auch versagen. Würde eine solche Fehlfunktion auftreten und einen schweren Unfall verursachen, könnte die öffentliche Diskussion viel heftiger werden als in Fällen mit menschlichem Verschulden.

Letztlich wird es beim automatischen Fahren also um die Frage gehen: Gestehen wir Robotern zu, dass sie in unvermeidlichen Ausnahmefällen Menschen verletzen oder gar töten dürfen? Oliver Bendel plädiert dafür, der Beziehung zwischen Mensch und Maschine Zeit zu geben: «Wenn wir bei selbstständig fahrenden Autos gleich die ethisch schwierigsten Fälle angehen, ist damit mehr der Philosophie gedient als der Praxis», sagt er und schlägt vor, bestehende Maschinen zunächst mit einer «einfachen Moral» auszustatten. So entstehen Windkraftanlagen, Mäh- und Saugroboter mit Sensoren und Entscheidungsmöglichkeiten, durch die Tiere geschont werden, private Drohnen mit automatischen Datenschutzfunktionen oder «gewissenhafte» Chatbots auf Webseiten, wie der «Goodbot», den Studenten von Oliver Bendel entwickelten. Bei einer solch evolutionären Entwicklung würden nicht nur die Benutzer allmählich mit den «moralischen Maschinen» vertraut werden. Auch die Maschinen und ihre Programmierer könnten mehr über die Umsetzung von Ethik in Technik lernen.

Vielleicht würden die Menschen den Maschinen dann irgendwann auch mehr erlauben – und mehr verzeihen. Die Gesellschaft könnte leichter akzeptieren, dass die automatischen Autos der Zukunft zwar Tausende tödliche Unfälle vermeiden, zugleich aber einige neue verursachen. «Auch heute akzeptieren Autofahrer das sehr kleine Restrisiko, dass die Technik im Auto versagen und einen Unfall verursachen kann», meint Patrick Lin, Philosoph und Experte für Roboterethik an den US-Universitäten Stanford und Cal Poly. Für die automatischen Autos wünscht er sich jedoch möglichst viel Transparenz von Herstellern. Autokäufer sollten also klar und eindeutig wissen, zu welchen ethisch bestimmten Entscheidungen ihr Fahrzeug aufgrund seiner Programmierung fähig ist.

TEILAUTOMATISIERTES FAHREN

Würden Menschen für den Fall extrem seltener Dilemmasituationen dann sogar das eigene Opfer in Kauf nehmen? «Das könnte sein», glaubt Lin. «Menschen können heldenhaft und aufopferungsvoll sein, allerdings werden das Staat und Gesellschaft kaum vorschreiben können.» Könnte es also irgendwann ein Formular beim Autokauf geben, in dem Menschen ihre «ethische Bereitschaft» eintragen und unterschreiben müssen?

Interessante Gedankenspiele, denen sich bislang allerdings primär Wissenschaftler stellen. Für Ralf Guido Herrtwich, Leiter Fahrerassistenz- und Fahrwerksysteme bei der Daimler-Konzernforschung, sind die gegenwärtigen Ethikdiskussionen zu theoretisch: «Wir bringen unsere Assistenzsysteme schrittweise in den Markt und peilen eine grösstmögliche Sicherheit an. Wir bieten derzeit schon den Stauassistenten, der bei Geschwindigkeiten von weniger als dreissig Stundenkilometern auf der Autobahn selbstständig das Lenken, Gasgeben und Bremsen übernimmt.» Bis zum Ende dieses Jahrzehnts sieht Herrtwich teilautomatisierte Fahrzeuge, die auch bei hoher Geschwindigkeit autonom auf der Autobahn fahren können. Erkennt solch ein Fahrzeug Probleme, zum Beispiel eine Gefahrensituation auf der Strecke weiter vorn, signalisiert es dem Fahrer, dass er übernehmen muss.

So weit, so gut, und im Grundsatz ist ein solches System mit dem Autopiloten in Flugzeugen vergleichbar. Doch das teilautomatisierte Fahren im Auto bringt neue, spezielle Herausforderungen. Denn der Mensch muss in jeder Situation auf Bereitschaft sein, weil auf den Strassen am Boden nun einmal deutlich mehr Verkehr ist als in der Luft und buchstäblich an jeder Ecke ein Risiko lauern kann. Deshalb kann sich der Fahrer eines solchen Autopilot-Autos nicht vollständig vom Fahrgeschehen abwenden. Zugleich aber soll er sich, da kritische Situationen nur selten vorkommen werden, ein wenig Entspannung gönnen.

Wie schnell und effizient er dann wieder an Deck sein kann, wenn es darauf ankommt, bleibt Aufgabe der Ingenieure und Psychologen. «Solche Fragen werden in unseren Entwicklungsabteilungen behandelt», erklärt Ralf Guido Herrtwich. Langfristig erwartet er genügend Sicherheitspuffer auch bei vollautomatischem Fahren: «Bei dieser Entwicklungsstufe muss der Fahrer nicht mehr eingreifen. Erkennt das System ein Problem, kann es von allein in den sogenannten risikominimalen Zustand gehen, das heisst, sicher an der Seite anhalten. Doch auch dies wird zunächst am ehesten auf der Autobahn funktionieren.» Herrtwich ist überzeugt, dass die Gesellschaft durch den schrittweisen Ausbau der automatischen Fahrfunktionen Roboter-Autos am Ende akzeptieren wird. Und er gibt zu bedenken: «Auch bei der Einführung des Airbags oder von ABS gab es Diskussionen, welche zusätzlichen Gefahren von diesen Systemen in wenigen Einzelfällen ausgehen. Schnell hat sich gezeigt, dass der grosse Sicherheitsnutzen weit überwiegt.»

LANGSAMER INTELLIGENZZUWACHS

Auch andere Hersteller und Zulieferer argumentieren so. Sie rechnen damit, dass das Vertrauen der Gesellschaft in die Technik wächst, solange die Fahrzeuge in einem sicheren Rahmen langsam «intelligenter» werden. «Eine solide, nachhaltige technische Entwicklung ist eine wichtige Voraussetzung. Ebenso wichtig ist es, eine Diskussion mit allen Stakeholdern, Gesetzgebern, Verbänden zu führen, um einen gesellschaftlichen Konsens zu erzielen», sagt Markus Maurer, Professor für Regelungstechnik an der Technischen Universität Braunschweig. Er ist Sprecher des Projekts «Villa Ladenburg» der Daimler und Benz Stiftung, das sich mit langfristigen interdisziplinären Fragestellungen zum automatisierten Fahren auseinandersetzt. «Der Gesetzgeber wird letztlich festschreiben müssen, was eine Maschine im Strassenverkehr darf und was nicht. Zuvor müssen jedoch aufgeklärte Bürger mithilfe der Medien das Thema in aller Breite diskutieren.»

Es ist nicht eine Entscheidung nur der Fachleute, denn «das Auto geht jeden an, jeder will sich da einbringen», ist Maurer überzeugt. Daher will er auch den akademischen Nachwuchs mit dem Thema sensibilisieren: «Meinen Studenten mache ich klar, dass sie als Programmierer von autonomen Fahrzeugen auch Sittengesetze implementieren müssen.» Maurer beobachtet dann häufig intensive und kontroverse Diskussionen unter Studierenden, besonders wenn sie aus unterschiedlichen Fachrichtungen, wie Maschinenbau, Informatik und Psychologie kommen.

Was den Gesetzgeber angeht, so werden auch auf der politischen Seite Diskussionen notwendig sein. Denn noch ist die Rechtslage nicht geklärt. «In Deutschland verlangt die Strassenverkehrsordnung, dass ein Mensch das Fahrzeug jederzeit beherrschen kann. Es ist rechtlich nicht eindeutig, ob das auch durch die Hilfe autonomer Technik geschehen darf», erklärt Professor Eric Hilgendorf, der sich mit Informations-, Technik- und Strafrecht an der Universität Würzburg beschäftigt. Zur Klarstellung müsste das Gesetz also geändert werden. Da Deutschland jedoch wie andere europäische Staaten das 1968 ausgehandelte Wiener Übereinkommen über den Strassenverkehr unterschrieben hat, muss dieses internationale Abkommen mit solchen Änderungen im Einklang stehen. Für Hilgendorf ist dies der Fall, nationale Strassenverkehrsordnungen könnten aus seiner Sicht rasch angepasst werden. Wollte die Politik auf Änderungen beim Wiener Übereinkommen warten, könnte dies allerdings längere Zeit dauern, da 69 Staaten beteiligt sind.

JURISTISCH-ÖKONOMISCHER DIALOG

Die USA haben das Wiener Übereinkommen nicht unterzeichnet, allerdings wird das Strassenverkehrsrecht dort in jedem Bundesstaat einzeln festgelegt. Die bisher auf dieser Ebene erlassenen Gesetze für den Probebetrieb automatischer Fahrzeuge enthalten jeweils die Auflage, dass ein Mensch jederzeit in den Fahrbetrieb eingreifen können muss. Kalifornien hat ein Gesetz erlassen, das bis 2015 genaue Regelungen auch für den kommerziellen Betrieb fordert. Doch Bryant Walker Smith, Rechtsexperte an der Universität Stanford, erwartet nicht, dass in diesem Gesetz bereits alle Aspekte abgedeckt sein werden, vor allem was das Verhalten des Fahrzeuginsassen betrifft: «Wie aufmerksam muss er sein? Darf er etwas anderes tun? Solche Fragen kann man erst sinnvoll entscheiden, wenn automatisierte Fahrzeuge auf den Markt kommen und ihre technischen Grenzen exakt feststehen.»

Vor diesem Hintergrund empfiehlt die nationale US-Behörde für Strassenverkehrssicherheit (NHTSA) den Bundesstaaten Zurückhaltung. Aufgrund des technischen Entwicklungsstands sei es noch zu früh für eine konkrete Regulierung der Serienfahrzeuge, auch auf Bundesebene, heisst es in einem Papier. Dennoch ist Bryant Walker Smith zuversichtlich, dass kommerzielle automatische Fahrzeuge, wenn sie denn marktreif sein sollten, in den USA nicht an Gesetzen scheitern werden: «Es wird einen Dialog von Unternehmen und Gesetzgebern geben, sodass sich Rechtslage und Technik gemeinsam entwickeln.»

SENSORIK-SOFTWARE-WECHSELWRIKUNG

Was die Umsetzung von Ethik in Recht angeht, geht Sven Beiker, der als Geschäftsführer das Forschungszentrum Cars in Stanford leitet, von einer pragmatischen Sichtweise aus: «Automatisierte Autos versprechen eine deutliche Senkung der Unfallzahlen. Sie werden voraussichtlich viele Menschenleben retten, das ist in jedem Fall erst einmal ethisch positiv zu bewerten.» Beiker erachtet es als sehr schwierig, dass für besondere Unfallszenarien jeweils eigene ethische Richtlinien in Gesetzesform gegossen werden. «Die ethischen Aspekte eines Unfalls, die jetzt in der Theorie diskutiert werden, wird man in der Praxis hinterfragen müssen. Es wird unter Umständen nicht exakt feststellbar sein, welche Wechselwirkungen von Umweltbedingungen, Sensorik und Software ein automatisiertes Fahrzeug wirklich entscheiden lassen und gegebenenfalls zu einem Schadensfall führen.»

In jedem Fall wird die Entscheidungspraxis der Gerichte – in den USA wie in anderen Ländern – ein wichtiges Wörtchen mitreden. Kommen Menschen durch automatische Fahrzeuge zu Schaden, müssen Richter und Jurys über die Haftung entscheiden. Und sind bisher primär Fahrzeughalter oder -fahrer haftbar, wird sich das bei automatischen Fahrzeugen hin zu den Herstellern verschieben. Denn natürlich werden viele Unfall-Verursacher versuchen, die Verantwortung von sich weg und hin zum Produzenten oder Programmierer zu schieben; und wenn nicht die Verursacher selbst, dann doch bestimmt ihre Versicherungen. Laut Bryant Walker Smith ist daher denkbar, dass Autokäufer weniger für ihre Versicherung, dafür aber mehr für das Auto zahlen werden, da die Hersteller einen Teil ihrer noch unklaren Haftungsrisiken über einen höheren Kaufpreis an den Käufer weitergeben könnten.

Werden die ethischen und rechtlichen Herausforderungen automatischer Autos letztlich also doch pragmatisch gelöst? Durch die Anerkennung des gesamtgesellschaftlichen Nutzens und durch funktionierende Haftung im Einzelfall? Eines ist sicher: Vertrauen Menschen das Autofahren den Maschinen an, sind Roboter endgültig im Alltag angekommen. Für Patrick Lin können Roboterfahrzeuge gar helfen, dass wir Menschen uns besser verstehen: «Wir werden auf die Frage stossen: Kann Ethik auf stimmige programmierbare Regeln reduziert werden? Auch wenn wir die Antwort noch nicht wissen, automatische Autos werden uns zwingen, grundlegende philosophische Fragen aufs Neue zu prüfen – ein Studium dessen, was es bedeutet, Mensch zu sein.»