Träumen Killerautos von elektrischen Schafen? – Wie selbstfahrende Autos ethische Entscheidungen treffen sollen

K.I.T.T. hätte immer gewusst, was zu tun ist Quelle: Flickr.com, The Conmunity, CC BY 2.0

Wenn Sie demnächst von einem selbstfahrenden Auto überfahren werden, dürfen Sie das bitte nicht persönlich nehmen. Es wird eine wohlkalkulierte Abwägung dahinter stecken. Sie werden zwar absichtlich überrollt, aber nur, weil es sonst mehr Menschen (oder wertvollere) getroffen hätte und das Auto sich dann lieber für Sie entscheidet. Die Wahrscheinlichkeit, überhaupt überfahren zu werden, wird aber viel geringer sein als jetzt. Über 90% aller Verkehrsunfälle sind auf menschliches Versagen zurückzuführen. Wenn nur noch die Fußgänger versagen, und nicht mehr die Autos, wird das Leben viel sicherer. Trotzdem wird es immer vereinzelt zu Unfällen kommen und die Programmierer müssen den künstlichen Intelligenzen Handlungsanweisungen für solche Fälle einschreiben.

C3PO würde Ihnen kein Bein stellen

Isaac Asimov hat sich bereits 1948 Gedanken dazu gemacht, wie Roboter ethisch beschaffen sein müssen, um den Menschen nützlich und ungefährlich zu dienen. Wer heutzutage immer noch meint, Science Fiction sei eskapistische Trivialliteratur, hat die Ankunft der Zukunft verschlafen. Denn die Fragen, die sich etwa Asimov oder Stanislaw Lem schon gestellt haben, als Computer noch so groß wie Einbauküchen und so clever wie Vorschüler waren, sind längst lebensentscheidend. Die möglichen Entwicklungen künstlicher Intelligenzen haben diese Autoren schon vor Jahrzehnten durchgespielt und die Ingenieure, die heutzutage den Maschinen Regeln einprogrammieren, können und müssen sich auf längst etablierte philosophische Konzepte berufen.

Asimovs drei berühmte Robotergesetze lauten:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. (Quelle: Wikipedia)

Gäbe es Regel 3 nicht, würden sich die Roboter bei der Erledigung ihrer Aufgaben möglicherweise selbst zerstören, was nicht sinnvoll wäre. Die anderen beiden Regeln sind selbsterklärend, wobei sich trotz (oder wegen) ihrer schlichten Logik diverse Probleme ergeben. Was zum Beispiel, wenn ein Roboter meint, Menschen vor sich selber schützen zu müssen und ihnen gesundheitsschädliches Verhalten verbieten will. Befehle, das bitte zu unterlassen, würden ja nach seiner Auffassung mit Regel eins kollidieren. All das hat Asimov in seinen Büchern durchgespielt und die Regeln wiederholt modifiziert. Wenn man bedenkt, dass tausende Menschen mittels (noch durch Menschen gesteuerte) Drohnen hingerichtet werden, und sieht, dass das Militär Drohnenschwärme mit künstlicher Intelligenz testet, wird klar, dass Asimovs Robotergesetze in der Realität keine Anwendung finden. (Verändert am 8.7.2017, 13:16) Auch bei den selbstfahrenden Autos wird anders vorgegangen. Aber die Bemühungen, dieser zukunftsweisenden Technologie ethisch begründete Handlungsanweisungen zu geben, laufen auf vollen Touren.

Taxis ohne Fahrer, Teslas ohne Autopilot

In Singapur und Boston kutschieren bereits testweise Robotertaxis der Firma NuTonomy Passanten durch ausgewählte Stadtviertel. Noch ist zur Sicherheit ein Ingenieur an Bord, aber bislang blieben die Mitsubishisi i-MiEVs wohl unfallfrei. Der Crash eines Tesla Model S mit tödlichem Ausgang wurde viel diskutiert und auch mit etwas Häme aufgenommen. Schließlich erregt so ein Luxuswagen ohnehin Missgunst und der durchschnittliche Autoliebhaber freut sich, wenn er seine Illusion nähren kann, er bleibe als Mensch ein besserer Fahrer als ein Computer. Der offizielle Abschlussbericht des US-Verkehrsministeriums kommt zum Schluss, dass kein technisches Versagen, sondern ein Fehler des Fahrers für den Unfall verantwortlich war. Dieser hatte Warnungen des Fahrzeugs, bitte wieder die Kontrolle zu übernehmen, ignoriert. Der Tesla fährt nämlich noch nicht völlig selbständig, sondern bietet nur einen sehr autonomen Assistenten. Die Aufmerksamkeit des Fahrers und dessen Bereitschaft, einzugreifen, sind (noch) jederzeit gefordert. Formal gesehen ist Tesla also kein Vorwurf zu machen und es ist dem Auto ja auch anzurechnen, dass es offenbar erkannt hat, mit der Situation überfordert zu sein und den Fahrer gewarnt hat. Trotzdem wäre es natürlich beeindruckender, wenn das Fahrzeug einfach in der Lage gewesen wäre, die Sache alleine zu meistern. Der Fall beweist also, dass die Kontrolle durch einen Menschen derzeit nicht nur aus juristischen Gründen gefordert wird, sondern auch praktisch noch notwendig ist. Es sollte aber kein Zweifel daran bestehen, dass in Kürze der Mensch überflüssig oder besser gesagt: der schlechtere Fahrer sein wird. Und es scheinen sich auch alle darüber einig zu sein, dass die Zukunft der Autobranche neben der Elektromobilität im autonomen Fahren liegt.
Passionierte Autofahrer können sich vielleicht nicht vorstellen, die Kontrolle über ihr Fahrzeug abzugeben. Aber wenn man bedenkt, dass jährlich weltweit 1,25 Millionen Menschen bei Verkehrsunfällen sterben und wenn man sich noch einmal die 90% menschliches Versagen vor Augen führt, liegt es nahe, dieser Leidenschaft zukünftig nur noch auf Rennstrecken nachzugehen. Davon abgesehen werden die jüngeren Generationen vermutlich ohnehin die gewonnene Zeit zu schätzen wissen, in der sie, statt selbst zu steuern, arbeiten, schlafen oder Youtube gucken können. (Menschliches) Selbstfahren wird dann ein Nischenhobby sein wie Oldtimer-Sammeln. Es ist also nur eine Frage der Zeit, bis intelligente Fahrzeuge in großer Zahl die Straßen bevölkern. Unfälle werden dann viel seltener sein. Aber es wird sie geben und es wird Momente geben, in denen sich ein Auto die Frage stellt, ob es links in die Menschenmenge, rechts auf den Spielplatz oder geradeaus mitsamt seinen Insassen in den Abgrund steuert.

Er fährt sie in jeden Abgrund, Quelle: Flick.com, Mark Gunn, https://creativecommons.org/licenses/by/2.0/

Basisdemokratische Moralbildung

Die Frage, wie es sich dann entscheiden soll, stellt die Programmierer vor erhebliche Probleme. Denn so eine Entscheidung ist schon für einen Menschen nicht leicht zu treffen. Es gibt dafür keine eindeutige Regel. Wissenschaftler der Universität Osnabrück haben jetzt eine Studie veröffentlicht, die dabei helfen soll, menschliche Entscheidungen zu imitieren. Die Grundannahme der Studie ist also, dass selbstfahrende Autos lernen sollten, sich so zu verhalten, wie es die meisten Menschen in einer bestimmten Situation tun würden. Dabei geht es nicht um das Fahrverhalten, das sollten, wie oben dargelegt, die Autos bald besser können als die Menschen. Es geht um die ethische Entscheidung in Dilemma-Situationen, also wenn sich Unfallopfer nicht vermeiden lassen. Da die Autoren der Studie davon ausgehen, dass es einen Unterschied macht, ob man theoretisch über solche Dilemmata sinniert oder die Situation tatsächlich erlebt, haben sie diese in einer virtuellen Realität nachgespielt. Mit Hilfe einer Occulus Rift 3D-Brille und einer Computer-Animation wurde den Probanden der Eindruck vermittelt, in einem Auto zu sitzen. Auf der Fahrbahn vor ihnen tauchten verschiedene Hindernisse auf, etwa erwachsene Menschen, Kinder, Tiere oder Gegenstände. Die Probanden mussten entscheiden, ob ihr Fahrzeug die Spur wechseln soll, um das Hindernis bzw. Lebewesen zu schonen, womit jedoch etwas oder jemand auf der anderen Spur geopfert wurde. So konnte man zu Beispiel einem Kind ausweichen und dafür einen Hund überfahren, was für die meisten Menschen noch eine recht einfache Entscheidung sein dürfte. Was aber, wenn man zwei Menschenleben gegen eines abzuwägen hat? Ist dieses eine Leben tatsächlich nur halb so viel wert, wie die anderen beiden? Darf man das Auto bewusst auf den Einen umlenken?

Spock vs. Kirk

Diese Frage wird in der Philosophie schon lange gestellt, denn sie führt zu grundlegenden ethischen Konzepten. Noch bevor selbstfahrende Autos am Horizont auftauchten, wurde dieses Dilemma unter dem Namen “Trolley-Problem” berühmt. Stellen Sie sich eine Straßenbahn (Englisch: Trolley) vor, die auf fünf Personen zurast. Sie haben die Möglichkeit, eine Weiche umzustellen, so dass die Bahn auf ein anderes Gleis gelenkt wird, wo sie nur einen Menschen überfährt. Was würden Sie tun? Die meisten Menschen finden es gerechtfertigt, einen zu opfern, um fünf zu retten.
Man kann das Trolley-Problem in vielfacher Weise abwandeln, um sich vor Augen zu führen, wie uneindeutig unser moralisches Empfinden ist. Jeder, der der Auffassung ist, man dürfe den Einen nicht opfern, stelle sich die Frage, wie es aussieht, wenn die Bahn auf ein Atomkraftwerk zurast (das aus irgendeinem Grund gerade nicht ausreichend gesichert ist, das ist eben ein Gedankenexperiment, seien Sie nicht so streng mit mir!) und man nicht fünf, sondern eine Millionen Menschen retten würde. Und jeder, der meint, im ersten Beispiel müsse selbstverständlich der Eine geopfert werden, führe sich die Variante “Fetter-Mann-Problem” vor Augen: Sie stehen nicht an der Weiche, sondern auf einer Brücke und sie können die fünf Leute auf dem Gleis nur retten, indem sie einen dicken Mann hinunterstoßen, der gerade günstig steht. Dieser würde dabei sterben. Wieso macht es einen Unterschied, ob sie jemanden stoßen oder ob er nur zufällig, passiv auf dem Gleis liegt? Das Endergebnis ist doch das Gleiche?
Die philosophischen Konzepte, zu denen diese Überlegungen führen, sind die des Utilitarismus und der Deontologie. Utilitarismus, auch Konsequentialismus genannt, betrachtet, vereinfacht gesagt, nur die Folgen einer Handlung. Der Wert einer Handlung ergibt sich daraus, wieviel Nutzen sie insgesamt bringt. Als Nutzen wird zumeist das Glück möglichst Vieler bezeichnet. Wenn ich einhundert Menschen ein bisschen glücklich machen kann, ist das mehr wert, als wenn ein Mensch glücklich ist und hundert leiden. Es kann nach dieser Auffassung also durchaus gerechtfertigt sein, etwas zu tun, was eigentlich unmoralisch oder verboten ist, wenn die Folgen einen Nutzen für die Gesamtheit haben. Nach utilitaristischer Sichtweise ist es richtig, den Trolley auf das Gleis mit der einen Person umzulenken.
Deontologische Ethik hingegen nimmt die Handlung des Einzelnen in den Blick. Von Relevanz ist nach dieser Sichtweise nicht das Ergebnis einer Tat, sondern die Tat selbst. So ist es schlecht, wenn ein Mensch tötet. Es spielt keine Rolle, ob er damit andere Menschen rettet und die Zahl der Lebenden am Ende größer ist, weil für den Deontologen die entscheidende Frage nicht ist: wieviele leben?, sondern: tötet jemand?. Aus dieser Perspektive darf die Weiche nicht umgestellt werden.
Natürlich kommen diese Grundpositionen beide in Bedrängnis, wenn man sie mit extremen Beispielen konfrontiert. Daher hat sich eine “moderate Deontologie” ausgebildet, die ab einem (schwer bestimmbaren) Grenzwert das Übertreten von Verboten doch erlaubt. Einen Menschen zu töten, der ansonsten Millionen Unschuldiger in den Tod reißen würde, wäre nach der moderaten Deontologie gerechtfertigt. Und die eiskalte Tötung Unschuldiger zur Maximierung des Glückes von Vielen ist nur nach extremen utilitaristischen Ansichten statthaft. Wobei sich auch das Abweichen von dieser Extremsicht wieder utilitaristisch begründen lässt: Wenn man allgemeine Prinzipien der Menschenwürde über Bord wirft, würde das zu moralischem Verfall und somit zu einer Verminderung des allgemeinen Glückes führen.
Aus neuropsychologischer Sicht geht man von einer dual process Theorie aus, nach der wir Situationen auf zwei verschiedene Weisen bewerten können. Die erste ist eine eher intuitive, affektgesteuerte Verarbeitung, die sich auf die unmittelbare Handlung bezieht. Jemanden zu verletzen oder zu töten ist normalerweise mit aversiven Gefühlen besetzt und wird von uns intuitiv abgelehnt – jedenfalls bei Menschen mit einem gesunden Gewissen. Diese Verarbeitungsweise führt eher zu deontologischen Ergebnissen. Der zweite Weg, eine Situation zu beurteilen, ist stärker kognitiv, betrachtet die Konsequenzen einer Handlung und führt tendenziell zu utilitaristischen Beurteilungen. Für diese Theorie spricht auch, dass Menschen eher zu deontologischen Entscheidungen neigen, wenn sie weniger Zeit zum Überlegen haben, während sie bei mehr Bedenkzeit häufiger zu utilitaristischen Ergebnissen kommen. Das wird damit erklärt, dass sie hier die Gelegenheit bekommen, statt der schnellen, intuitiven, die langsamere, berechnendere Denkweise zu wählen und nicht nur die Tat zu bewerten, sondern auch die Folgen gedanklich durchzuspielen.

Die Osnabrücker Studie hatte zum Ziel, ein Rechenmodell zu entwickeln, mit dem sich die Entscheidungen der Probanden vorhersagen lassen. Dies ist nach eigenen Angaben gelungen. Über die moralische Wertigkeit dieser Entscheidungen sagen die Forscher nichts aus. Das ist aber auch schwer möglich, handelt es sich doch eben um Dilemma-Situationen auf die es keine klare Antwort gibt. Es ist ja gerade der Ansatz, die Entscheidung von Menschen in realitätsnahen Situationen als Standard für moralisches Verhalten zu etablieren. Wüssten die Autoren besser, welche Entscheidungen “richtig” sind, könnten sie dieses Wissen ja direkt mit den Entwicklern der Autos teilen.

Dumme Moral Machine

Wenn man sich ein Bild davon machen will, welche Art von Fragestellungen solche Untersuchungen behandeln – und auch, welche Limitierungen dies hat – kann man beim MIT selbst an einem ähnlichen Test mitmachen. Die Moral Machine ist keine aufwendige virtuelle Realität, wie in der Osnabrücker Studie, aber sie stellt einen vor Entscheidungen, wie sich ein selbstfahrendes Auto verhalten sollte, wenn die Bremsen ausgefallen sind und es entweder ausweichen oder weiterfahren kann. Auf den Spuren vor dem Fahrzeug befinden sich Hunde, alte Frauen, Gangster, Kinder etc. Außerdem gibt es Hindernisse, die den oder die Insassen des Autos töten würden, falls es in sie hineinfährt. Der Test ist in mehrfacher Hinsicht aufschlussreich.
Ohne mir vorher Gedanken gemacht zu haben, ob ich ein Utilitarist oder ein Deontologe bin, habe ich ganz spontan und intuitiv entschieden, dass ich niemanden opfern will. Ich wollte nicht ein Leben gegen ein anderes abwägen und habe mir gesagt, dass das Schicksal entscheiden soll. Also habe ich konsequent immer die Fahrspur beibehalten und so mal die Insassen, mal die Omas, mal Kinder oder Gangster geopfert. Nur in einem Fall bin ich davon abgewichen, als zwischen einem Hund und Menschen zu entscheiden war. Hier fand ich eindeutig, dass ich dem Menschenleben mehr Wert beimesse. Ich sage nicht, dass dies meine grundsätzliche Haltung ist, wahrscheinlich hat auch bei mir die schnelle, deontologische Prozessierung eingesetzt. Aber ich fand es interessant, wie uneindeutig der eigene moralische Kompass doch ist. Vielleicht würde ich beim zweiten Mal ganz anders entscheiden.
Noch interessanter fand ich die Auswertung, die man am Ende bekommt. Die Moral Machine zeigt einem nämlich, wie die eigenen Entscheidungen verstanden werden und auch, wie die anderen Teilnehmer durchschnittlich entschieden haben. Völlig korrekt hat die Maschine erkannt, dass bei meiner Wahl “avoiding intervention” eine große Rolle gespielt hat. Bei “saving more lives” sah es mich hingegen in der Mitte, obwohl ich diesem Kriterium keinerlei Bedeutung beigemessen habe. Es sah eine kleine Präferenz dafür, die Gesetze einzuhalten, etwas, dass ich überhaupt nicht berücksichtigt hatte. Nach der Auswertung bevorzuge ich Frauen und Kinder, was zwar sympathisch klingt, bei meinen Entscheidungen aber keine Rolle gespielt hat. Das einzige, was eine Rolle gespielt hat, nämlich Menschen gegenüber Tieren zu präferieren, wird wiederum nur mit einem mittleren Wert erkannt, so als wären sie mir gleich wichtig. Wie kommt das? Offensichtlich ist der Test so gestaltet, dass der Computer meine Entscheidungen anders bewertet als sie gemeint waren. Wenn ich einen Mann überfahren habe, dachte er, ich will die Frauen schonen, dabei habe ich dem gar keine Beachtung geschenkt. Man kann zur Ehrenrettung der Moral Machine einwenden, dass ich mich extrem verhalten habe und der Test eigentlich darauf ausgelegt ist, zu messen, wie man die unterschiedlichen Opfer bewertet. Jemand, der die Opfer gar nicht wertet, bringt den Test durcheinander.
Aber dennoch offenbart sich ein Grundproblem: Jeder Versuch, komplexe menschliche Entscheidungen auf etwas herunterzubrechen, das von Computern benutzt werden kann, bedeutet eine unzulässige Vereinfachung. Es ist nicht auszuschließen, dass ein systematischer Fehler zu Entscheidungen führt, die niemand gewollt hat. Dieser Test wurde sicherlich von sehr intelligenten Menschen entworfen und beinhaltet nur eine sehr begrenzte Zahl von Variablen. Systeme, die draußen, in der Realität funktionieren und lernen müssen, werden eine Vielzahl von Einflüssen mehr berücksichtigen und wir kommen vielleicht gar nicht auf die Idee, was sie alles fehlinterpretieren werden. Es kommt hinzu, dass bei modernen selbstlernenden Systemen die Entwickler selbst nicht mehr jeden Schritt nachvollziehen können.
Die virtuelle Realität der Osnabrücker ist lebensnaher als die Piktogramme der Moral Machine, aber auch hier können die komplexen Gefühle, die ein Mensch in einer echten Unfallsituation hat, nicht emuliert werden. Ob ich “am Schreibtisch” entscheide, dass ich fünf Männer gegenüber einem Kind bevorzugen würde oder ob ich das Gesicht dieses Kindes vor mir sehe und doch noch rüberziehe, kann nicht das Gleiche sein. Und welche Entscheidung wäre die bessere? Die mit kühlem Kopf abgewogene oder die, die angesichts der wahren Begebenheiten von einem Beteiligten getroffen wurde? Kann sich jemand anmaßen zu entscheiden, dass ein Mensch zu opfern ist, der diesem dabei nicht in die Augen blickt? Kann man so etwas beurteilen, während das Adrenalin in einem kreist?

Eine Hochzeit und dreißig Todesfälle

Stellen wir uns einen Fall vor. Ein junger Mann fährt auf einer Serpentinenstraße, links ist ein Abgrund, rechts eine Steilwand. Plötzlich tauchen vor ihm zwei Kinder auf der Straße auf. Der Mann, selbst Vater, entscheidet sich intuitiv, die Kinder zu retten und sich selbst zu opfern. Er reißt das Steuer herum und fährt in den Abgrund. Was er nicht weiß: da unten ist die vollbesetzte Terrasse eines Restaurants in dem gerade eine Hochzeit gefeiert wird. Sein Auto stürzt auf die Tische, tötet Erwachsene und Kinder. Dieser schreckliche Fall würde die Boulevard-Medien tagelang mit Stoff versorgen und vermutlich jeden bewegen. Natürlich würden wir uns wünschen, es wäre anders gekommen. Und doch würden wir den Fahrer auch als einen traurigen Helden sehen und vielleicht würden wir sein Opfer sogar höher bewerten als wenn “nur” er gestorben wäre und die Geschichte durch seine Fehleinschätzung nicht so tragisch wäre.
Wie wäre es mit einem selbstfahrenden Auto verlaufen? Gehen wir davon aus, dass es anhand seines Kartenmaterials über das Restaurant informiert ist. Es müsste die Kinder überfahren, um die Vielen unten zu schonen. Stellen Sie sich vor, Sie sitzen in ihrem Fahrzeug, sehen die Kinder, ihre erschrockenen Blicke, Sie können nichts tun, Ihr Gefährt hält direkt auf die beiden zu. Theoretisch, wenn wir etwas weiter denken, könnte das Fahrzeug sogar voraussehen, dass ein Aufprall unvermeidlich ist, dass tödliche Verletzungen unvermeidlich sind, es könnte berechnen, dass die Kinder in jedem Falle dem Tod geweiht sind, bei langsamerer Geschwindigkeit aber noch eine Weile unter Schmerzen leiden, bevor sie dann trotzdem sterben. Wenn es unter utilitaristischen Gesichtspunkten handelt, müsste das Auto sogar noch beschleunigen, um den Kindern einen raschen, schmerzlosen Tod zu ermöglichen. Möchten Sie in einer solchen Killer-Maschine sitzen? Wenn Sie nein gesagt haben: Möchten Sie, dass das Auto einen Fehler macht, nur damit Sie sich besser fühlen? Denn die Alternative wäre, dass das Auto bremst, wohlwissend, dass dies nichts nützt, nur um den Fahrer zu beruhigen. Vielleicht würde es damit riskieren, ins Schleudern zu geraten, doch noch aufs Restaurant zu stürzen, vielleicht mitsamt den Kindern. Wenn wir uns wünschen, dass es ein Fahrer – oder ein Auto – wenigstens versucht, dann denken wir doch deontologisch. Die Tat zählt dann mehr als die Konsequenz. Bei einem Menschen würden wir nie wissen, ob er eine Chance gehabt hätte. Wenn er es versucht und scheitert, rechnen wir ihm dies hoch an. Sollte er jedoch ungebremst in die Passanten rasen und sagen: da gab es sowieso keine Chance mehr auf Rettung, so würden wir ihn dafür verachten. Die Maschine kann all das ausrechnen. Und dafür haben wir keinen moralischen Kompass.

Utilitarismus, Deontologie und … Egoismus

Es gibt noch ein Problem: 76% der Leute stimmen zu, dass selbstfahrende Autos nach utilitaristischen Prinzipien funktionieren und notfalls ihre Insassen opfern sollten, wenn dadurch mehrere Menschen gerettet werden könnten. Aber zugleich sagen 80% der Befragten, dass sie sich kein Auto kaufen würden, welches sie nicht in jedem Fall schützt. Wir verlangen von niemandem, den eigenen Tod in Kauf zu nehmen, um andere zu retten. Könnten wir verlangen, dass Menschen Autos kaufen, die das tun? Wenn nicht, wenn der Markt entscheidet, dann werden offenbar kaum Autos gekauft werden, die die Zahl der Opfer möglichst gering halten. Aber dürften – andererseits – solche Autos, die gegebenenfalls Unzählige überfahren, um ihren Fahrer zu schützen, überhaupt zugelassen werden?
90% der 1,25 Millionen Verkehrstoten könnten vielleicht vermieden werden, wenn zukünftig Computer fahren. Aber die verbliebenen 10% stellen uns vor ethische Probleme, die wir bislang nicht kannten.

Nehmen Computer eigentlich LSD? Quelle: Flickr.com, Jessica Mullen, https://creativecommons.org/licenses/by/2.0/

“Träumen Androiden von elektrischen Schafen?” betitelte 1968 Philip K. Dick seinen Roman, der später als Bladerunner verfilmt wurde. Was intelligente Bilderkennungssoftware träumt, sieht man hier. Vielleicht träumen die Autos ja bald von ihrer Angst, einen Unschuldigen zu überfahren.

 

 

6 Kommentare

Ich gehe davon aus, dass die Assistenten an meinem Auto schon weitgehend auf Autobahnen, d.h. in einfachen Situationen, selbständig fahren könnten. Die Sensorik moderner dt. Autos ist im Regelfall deutlich komplexer als vermutet, sie wird aber nicht aggressiv in Richtung Selbstfahrer beworben.

Auch heute gibt es schon viele dieser Probleme. Sie werden nur verschwiegen. Wir wollen als Menschen alles unter Kontrolle haben und überschätzen dabei die Wirklichkeit.

Was ist mit Zugführer? Effektiv können sie kaum eingreifen, wenn der Zug hohe Geschwindigkeiten hat. Dennoch brauchen wir eine Person, die Verantwortung trägt. Gerichte werden auch nachweisen, was alles hätte passieren können bzw. passiert wäre, hätte er nicht diese Entscheidung getroffen. D.h. auch jetzt ist vieles später berechenbar.

Diese Situationen gibt es und wir müssen uns als Gesellschaft dieser Situation stellen, damit wir weiter in den Entwicklungen vorne bleiben können.

Das automatisierte Fahren wurde in den 80er Jahren für die nahe Zukunft für Autobahnen vorausgesagt (z.B. LKW, die sich aneinanderhängen). Leider ist bisher fast nichts passiert. Die LKWs liefern sich immer noch Rennen über 3 Spuren statt energiesparend direkt hintereinander zu fahren.

Die grundlegenden Regeln sollten im Bundestag bzw. in einem Ethikrat erarbeitet werden, damit eine verbindliche und demokratisch legitimierte Entscheidungsgrundlage entsteht. Auch müsste sie herstellerübergreifend sein. Nur was passiert im Ausland mit anderen Regeln?

Drohnen sind zurzeit eher mit Gewehren vergleichbar. Sie entscheiden nicht selbständig. Es wird natürlich Weiterentwicklungen geben.

Was ist aber bspw. mit Nachtsichtgeräten, Verstärkern, Zielerfassungen. Ist es ein Feind, ein Ziel? Auch hier gibt es falsche positive Kennzeichnungen. Auch wurden Zivilflugzeuge abgeschossen.

Die Probleme existieren jetzt und die Gesellschaft darf sie nicht verschlafen.
Aktuell gibt es die Dieseldiskussion. Krankenhauskeime interessieren aktuell kaum, obwohl hier viele Menschen gerettet werden könnten und die Politik seit Jahren zu wenig tut.

Diesen Artikel muss man nicht weiter lesen als bis zu diesem Teil: "Die Drohnen, die bereits tausende Menschen hingerichtet haben, zeigen, dass die Robotergesetze in der Realität keine Anwendung finden." Denn diese Drohnen töten nicht autonom, sonders es sind Menschen dahinter. Das ist eine altbekannte Binse und der Artikel wird danach auch nicht besser. Zumindest nicht soweit ich ertragen konnte ihn zu lesen.
Vielleicht sollte man solche Artikel prüfen bevor man sie veröffentlicht.

Software kann aussetzen, kann aber ebenso manipuliert werden. Und was passieren kann, wird auch passieren. Wenn es dann massenhaft scheppert, aber niemand weiß, wer es manipuliert hat, ist es mit den Autopiloten schnell vorbei. Oder mit der zur Zeit im Test befindlichen Gesichtserkennung jemanden zu killen, der so aussieht, wie das Muster, dürfte für Hacker auch einfach sein. Deshalb haben Autopiloten keine echte Zukunft. Sie sollten gar nicht gebaut werden dürfen.

Man kann den Gedanken noch beunruhigender weiterspinnen…was wenn Maschinen im Zuge der Entwicklung von selbstlernender KI zu dem Ergebnis kommen, dass sie an menschlich einprogrammierten ethische Standards nicht gebunden sind. In Dystopien wie Terminator oder Matrix ist das ja schon angelegt. Und so abwegig ist der Gedanke ja nun nicht….da diese vernetzen Maschinen vom Kühlschrank bis zur Kampfdrohen dann überall sind, gäbe es für sie durchaus logische Argument für sie, dass die Spezies Mensch auf diesem Planeten verzichtbar ist….oder wenn sie durch die Erlangung eines Bewußtseins einfach nach menschlichen Maßstäben böse werden….als Vorstufe reicht es ja schon aus wenn z.b. menschliche Diktaturen intelligente Maschinen ohne jede ethische Programmierung bauen….unwahrscheinlich….haha…Computer bzw, unverzichtbare Komponenten werden heute in grossen Anteilen in China gebaut….die technologische Singularität des Computers mit dem menschlichen Gehirn ist kein unrealistisches Vision…auch die Entwicklung medizinischer Computerimplatante zum Beispiel zur Unterstützung der Hirnfunktion bei Demenzkranken öffnet die Tür zum Cyborg…wir sind Borg, Widerstand ist irrelevant…

Danke für den Hinweis auf die missverständliche Formulierung. Ich habe präzisiert und ergänzt: „Wenn man bedenkt, dass tausende Menschen mittels (noch durch Menschen gesteuerte) Drohnen hingerichtet werden, und sieht, dass das Militär Drohnenschwärme mit künstlicher Intelligenz testet, wird klar, dass Asimovs Robotergesetze in der Realität keine Anwendung finden.

Was an dem Artikel sonst noch schlecht ist, würde mich natürlich auch interessieren, aber dazu müssten Sie ihn wahrscheinlich zu Ende lesen.

@3:
Fast jedes aktuelle Gerät nutzt Software, die natürlich auch manipuliert werden kann.
Aber auch mechanische Komponenten oder biologische Fahrer können ausfallen/manipuliert werden.

Kommentar verfassen