Home Newspaper NÉMET - Sprachtraining Wenn der «Roboter am Lenkrad» einen Fehler macht

Wenn der «Roboter am Lenkrad» einen Fehler macht

Bei einem Unfall mit einem teilweise selbstfahrenden Auto ist in den USA der Fahrer getötet worden. Der Vorfall wirft die Frage auf, inwiefern sich Mensch und Maschine Verantwortung teilen können.

In wenigen Jahren könnten Autos in Serienproduktion gehen, die ohne menschliches Zutun fahren. An entsprechenden Technologien arbeiten Autokonzerne und finanzkräftige Silicon-Valley-Konzernegleichermassen, und zum Teil gar in Zusammenarbeit. Schon heute kommt die Realität an diese futuristisch anmutende Vorstellung nah heran. Im Oktober etwa hatte der bekannte amerikanische Hersteller von Elektroautos, Tesla, für sein «Model S» eine aufdatierte Software eingeführt, die das Auto auf Autobahnen autonom fahren lässt. Doch ist bei einer solchen Fahrt, wie diese Woche nun bekanntwurde, im Mai der erste Unfall mit Todesfolge passiert. In Florida war ein im Selbstfahrmodus betriebener Tesla unter den hinteren Teil eines Lastwagens geraten.

Technologie weit fortgeschritten

Autofahrer stellen sich nun die Frage, wie ausgereift die Technologien eigentlich sind. Denn vor allem in den höherpreisigen Modellen der meisten Automarken finden sich bereits viele selbststeuernde Fahrfunktionen. Und wer ist verantwortlich dafür, wenn, wie im jüngsten Fall, ein im Selbstfahrmodus betriebenes Auto verunfallt? Die Fragen interessieren Autofahrer, Autokonzerne und Versicherer gleichermassen.

Der Tesla-Unfall hat bereits die amerikanische Bundesbehörde für Strassen- und Fahrzeugsicherheit (National Highway Traffic Safety Administration, NHTSA) auf den Plan gerufen. Möglicherweise wird die Behörde etwas Licht in die Frage nach dem Hergang- und der Ursache des Unfalls bringen.

728x90 100

Gemäss einer Mitteilung von Tesla ereignete sich der Unfall, als ein Lastwagen sich auf der Autobahn wohl seitwärts – Tesla benutzt den in diesem Zusammenhang nicht ganz eindeutigen Begriff «perpendicular» oder perpendikulär bzw. senk- oder lotrecht – dem Auto näherte. Weder der Autopilot noch der Fahrer hätten die weisse Fläche des Lastwagens vor dem Hintergrund des hellen Himmels erkannt und hätten daher nicht gebremst. Für eine Klärung allfälliger Haftungs- und Schuldfragen in diesem speziellen Fall, aber auch generell, spielen wohl zwei Aspekte eine wesentliche Rolle: das Ausmass des Einsatzes von selbstfahrender Technologie und dessen Reifegrad. Bei dem in den Unfall verwickelten Wagen handelte es sich keineswegs um ein vollautomatisch gesteuertes Auto, wie es etwa Google vorgestellt hat; solche komplett fremdgesteuerten Autos sehen gar keinen Fahrer mehr vor. Das Tesla-Modell hingegen muss vom Fahrer zunächst aktiv in den Selbstfahrmodus versetzt werden; das geht übrigens nur auf Autobahnen, und der Fahrer wird zudem angehalten, die Hände am Steuer zu halten. Im Selbstfahrmodus kann das Fahrzeug selbständig in der Fahrspur fahren, den Abstand zu vorausfahrenden Fahrzeugen halten, entsprechend Abbremsen oder Beschleunigen. Auch kann es, wenn der Fahrer einen entsprechenden Befehl gibt, die Spur wechseln. Auf Seitenstrassen oder im Stadtverkehr und in anderen komplizierteren Fahrsituationen ist der Autopilot allerdings noch nicht geeignet.

Tesla weist den Fahrer beim Einschalten des Autopiloten darauf hin, dass er weiterhin die Kontrolle über das Fahrzeug ausübt und die Verantwortung übernimmt. Es ist unklar, ob der verunglückte Autofahrer zum Zeitpunkt des Unfalls seine ihm von Tesla zugeschriebene Verantwortung als Autofahrer wahrgenommen hat oder etwa abgelenkt war. Es ist aber auch unklar, ob in einem juristischen Streitfall die Gerichte dem Fahrer des Tesla überhaupt eine Verantwortung in dem Mass aufbürden würden, wie das Tesla tut. Möglicherweise muss Tesla hier gar mit sehr hohen Schadenersatzforderungen seitens der Angehörigen rechnen. Wie die Verantwortlichkeiten verteilt wären zwischen Autohersteller und Autofahrer in allfällig ganz eigenständig fahrenden Autos, die womöglich gar kein Lenkrad, Brems- oder Gaspedal mehr haben, ist noch völlig unklar.

Der zweite Aspekt bei der Frage nach der Verantwortlichkeit ist der Reifegrad der Technologie. Tesla weist darauf hin, dass der verwendete Autopilot noch immer in der Testphase sei und die Autofahrer beim Einschalten des Autopiloten auch darüber in Kenntnis gesetzt würden. Möglicherweise könnte sich Tesla damit der Verantwortlichkeit für den Unfall entziehen; schliesslich ist das Auto offiziell zum Betrieb im Strassenverkehr zugelassen.

Kunden als Versuchskaninchen

Doch die Tatsache, dass Tesla sein Autopilot-System im Strassenverkehr sozusagen durch seine Kunden testen lässt, mutet befremdlich an. Und der Unfall könnte die öffentliche Wahrnehmung dieser Tatsache fördern und den aufstrebenden Autokonzern wirtschaftlich empfindlich treffen. Die Beispiele Toyota, GM und jüngst auch VW haben gezeigt, dass mit Autokonzernen in den USA nicht zimperlich umgegangen wird, wenn die Kunden wissentlich vermeidbaren Risiken ausgesetzt worden sind.

http://www.nzz.ch/wirtschaft/unternehmen/haftungsfrage-nach-toedlichem-tesla-unfall-wenn-der-roboter-am-lenkrad-einen-fehler-macht-ld.103508

Exit mobile version
Megszakítás