Künstliche Intelligenzen sind zu dumm für menschliche Moralvorstellungen

Mathematik bietet keinen Spielraum für ethische Abwägungen. Wer Künstlichen Intelligenzen Moral beibringen möchte, ignoriert technische Grenzen. Und wird den Schaden erst anrichten, der doch eigentlich vermieden werden soll.

Getty Images

Wen sollte das autonome Fahrzeug nun töten, den Rentner oder die Frau mit dem Kinderwagen? Man kennt das ja als Autofahrer. Ständig steht man unterwegs vor eben diesem Dilemma. Fährt man den Fußgänger um, der die Straße vor einem überquert? Weicht man doch lieber in den Gegenverkehr aus, in die Personengruppe auf dem Fußweg oder setzt man seinen Wagen gar bewusst gegen den Baum, um niemanden zu gefährden außer sich selbst? Ach so, derartige Situationen kommen eigentlich nie vor? Ein Unfall geschieht, weil man ihn nicht vorhergesehen hat? In einer solchen Situation reagiert man ohnehin instinktiv, denn Zeit zum Nachdenken bleibt nicht? Ist man aber tatsächlich noch dazu in der Lage, unterschiedliche Optionen zu prüfen, besteht auch immer eine Chance, die Kollision zu vermeiden? Durch eine abrupte Verringerung der Geschwindigkeit beispielsweise?

Häretische Fragen aus der Sicht jener, die allen Ernstes empfehlen, hochautomatische oder gar autonome Autos erst auf die Straße zu lassen, wenn man diesen einprogrammiert hat, welches Opfer sie im Ernstfall bevorzugen sollen. Eine Forderung, die nicht nur weltfremd ist, sondern auch noch prinzipielle technische Limitierungen ignoriert. Denn das, was man heute als Künstliche Intelligenz (KI) realisiert, vermag sehr wohl ein Auto zu steuern, aber ethische Prinzipien kann es dabei nicht berücksichtigen. Weil es keine Möglichkeit gibt, solche mathematisch zu formulieren.

Formale Logiken eignen sich nur zur Abbildung von Handlungen, die einer eindeutigen Bewertung nach Kriterien wie „falsch“ oder „richtig“ zugänglich sind. Wenn „Ampel rot“, dann „anhalten“ ist ein simples Beispiel. Die Berücksichtigung zahlreicher weiterer Umgebungsinformationen, darunter das dynamische Verhalten anderer Verkehrsteilnehmer, erschwert die Angelegenheit natürlich enorm. Der Begriff „Künstliche Intelligenz“ steht für eine Reihe unterschiedlicher Rechenkonzepte, mit deren Hilfe aus sehr vielen Eingangsdaten ein bezüglich einer vorgegebenen Zielstellung geeignetes Resultat kalkuliert werden kann. Fallbasierte Expertensysteme ermitteln eine Antwort aus Vergleichen mit ähnlichen Problemstellungen. Evolutionäre Algorithmen erarbeiten potentielle Lösungen über rekursive Optimierungsschritte. Und die aktuell aufgrund ihrer Flexibilität populären neuronalen Netze reduzieren komplexe Situationen auf ihre wesentlichen Parameter. Alle diese Ansätze sind so alt wie der programmierbare Digitalrechner selbst. Alle diese Ansätze sind erst jetzt praktikabel umsetzbar, da die Kapazitäten und Geschwindigkeiten elektronischer Rechner ihren Leistungsansprüchen endlich genügen und außerdem ausreichend digitale Daten vorliegen, um sie zu füttern und zu trainieren. Aber keiner dieser Ansätze beruht wirklich auf der Imitation menschlicher Lösungsstrategien.

Man betrachte dazu exemplarisch die Verlängerung der folgenden Zahlenreihe, eine Aufgabe, wie sie in Standard-Intelligenztests häufig vorkommt: 1, 8, 27, 64, 125, … Wie lautet das nächste Glied der Kette? Richtig, es ist 216. Wie sind Sie darauf gekommen? Es handelt sich offensichtlich um die Folge der Kubikzahlen 1³, 2³, 3³, 4³, 5³ mit 6³=216 als zwingender Fortsetzung. Wie würde ein Programmierer diesen Auftrag für seinen Computer übersetzen? Der Rechner ist ja nicht dazu fähig, die Konstruktionsvorschrift zu ermitteln. Er hat schlicht keine Ahnung vom Konzept „Kubikzahlen“. Er kann aber die vorgegebenen Werte als Koordinaten ansehen und durch diese ausgleichende Kurven legen. Die beste Annäherung, definiert durch die kleinstmögliche Summe der Abstände aller Datenpunkte vom Verlauf der Kurve, wird für die Prognose des gefragten Wertes eingesetzt. Da y=x³ die obige Zahlenreihe nach diesem Kriterium am besten wiedergibt, landet auch der Computer bei 216.

Sehr schnell und entlang eines Weges, den ein Mensch niemals beschreiten würde.
Ein neuronales Netz, das beispielsweise auf die Erkennung von Katzenbildern trainiert wurde, „erkennt“ Katzen so wenig wie oben skizzierte Software Kubikzahlen. Jedes artifizielle „Neuron“ stellt lediglich einen Speicherplatz für eine Ziffer dar, die mit einem veränderbaren Faktor multipliziert, also mit einer variablen Gewichtung, an andere „Neuronen“ übertragen wird. Eine typische Topologie für neuronale Netze ist der Aufbau in Schichten. Jedes Neuron einer Ebene ist dabei mit jedem Neuron der nächstfolgenden verbunden. In der ersten Schicht werden die Eingangsdaten registriert. Die letzte Schicht trägt die Ausgangswerte. Die Ebenen dazwischen addieren und multiplizieren wild herum. Legt man einer solchen Konstruktion Graustufenbilder vor, die entweder mindestens eine oder eben gar keine Katze enthalten, repräsentiert jedes Neuron der ersten Schicht ein Pixel des Fotos und übernimmt dessen Helligkeitswert. Es handelt sich also je nach Auflösung des Bildes um hunderttausende oder gar Millionen Speicherplätze, die jeweils eine Zahl zwischen „0“ (schwarz) und „1“ (weiß) beinhalten. Am Ende sollen nur noch zwei Neuronen übrig bleiben, von denen das eine „1“ anzeigt, wenn im Bild eine Katze gefunden wird und das andere entsprechend mit einer „1“ das Resultat „keine Katze“ codiert.

Das Netzwerk wird nun mit Zufallswerten für alle Gewichtungen initialisiert. Es erzeugt entsprechend wirre Ergebnisse für die ersten Versuche. Aber es kann sich steigern, indem es die Gewichtungsfaktoren in geeigneter Weise verändert. Dazu definiert man eine „Kostenfunktion“, die die Abweichung des kalkulierten Ergebnisses vom gewünschten Resultat wiedergibt. Ein neuronales Netz macht also im Grunde nichts weiter, als das Minimum dieser Kostenfunktion zu suchen. Wie das erläuternde Bild zeigt, handelt es sich bei einem neuronalen Netzwerk um ein Werkzeug zur Multiplikation sehr großer Matrizen und Vektoren. Eine unter dem Begriff „lineare Algebra“ bekannte mathematische Disziplin. Aus der auch die Methoden stammen, mit denen es möglich ist, jene Gewichtungsfaktoren zu finden, deren Veränderung den größten Effekt auf die Kostenfunktion ausübt. So wird nach und nach das neuronale Netz immer besser darin, Katzenbilder korrekt als solche zu identifizieren. Aber hat es dabei wirklich gelernt, wie eine Katze aussieht? Findet sich das Bild einer Katze in den Gewichtungsfaktoren wieder? Man könnte ja vermuten, in den verdeckten Schichten würden zunächst Bildkanten identifiziert, aus diesen einfache Formen (Kreise, Rechtecke) abgeleitet, um schließlich zu den groben geometrischen Konturen einer Katze zu gelangen. Der detaillierte Blick in real existierende, gut trainierte Netzwerke aber zeigt nichts dergleichen. Sondern nur unstrukturiertes Rauschen in den Variablen. Wobei neuronale Netze nicht nur mit Gewichtungsfaktoren, sondern auch noch mit Schwellenwerten arbeiten und man manchen gar gestattet, bestehende Verbindungen zwischen einzelnen Neuronen zu kappen und neue zu knüpfen. Dadurch wird ihre Arbeitsweise noch undurchschaubarer. Das Innenleben eines neuronalen Netzwerks zeigt nicht an, was genau es leistet. Macht es einen Fehler, kann dieser nicht einfach auf einen Bug in der Programmierung zurückgeführt werden, sondern höchstens auf unzureichendes Training. Es gibt auch keine Stellschrauben in der Software, an denen man drehen könnte, um die Trefferquote zu erhöhen. Mehr Übung ist die einzige Option. Welche spezifischen Eigenschaften die für eine weitere Verbesserung geeigneten Trainingsdaten aufweisen müssen, ist ebenfalls nicht feststellbar. Ihre Erbauer vermögen also sehr genau zu beschreiben, was neuronale Netze eigentlich machen, aber nicht, wie sie zu einem bestimmten Ergebnis gelangen. Auf jeden Fall „denken“ sie nicht wie Menschen.

Tatsächlich bestimmen Computer, ob es nun um die Abstände von Datenpunkten zu Ausgleichskurven oder um die Kostenfunktion bei der Bildanalyse geht, unter Anwendung geeigneter mathematischer Methoden lediglich die Maxima oder Minima von Funktionen. Jedes Problem, das sich direkt oder indirekt in die Suche nach solchen Extremwerten überführen lässt, was unter anderem nahezu alle Aufgaben in klassischen Intelligenztests einschließt, vermögen Rechner zu bearbeiten. Alle anderen nicht. Künstliche Intelligenzen unterscheiden sich von herkömmlichen Algorithmen in der Fähigkeit, durch trickreich umgesetzte Verfahren sogar die Extremwerte äußerst komplexer Funktionen finden zu können. Sie sind eben deswegen „intelligent“, weil sie rein formal einen hohen Intelligenzquotienten erreichen könnten. Aber sie sind in keiner Hinsicht klug. Sie verfügen nicht über ein Weltmodell zur Einordnung ihrer Tätigkeit. Sie „wissen“ tatsächlich nichts über die Aufgabe, die man sie bearbeiten lässt und haben in dieser Hinsicht kein höheres intellektuelles Niveau als ein simpler Taschenrechner.

Neuronale Netze, die Automobile autonom bewegen, arbeiten mit Daten unterschiedlicher Sensoren. In dem so erhaltenen Umgebungsbild identifizieren sie potentielle Hindernisse mit genau der Vorgehensweise, die andere Künstliche Intelligenzen bei Katzenfotos einsetzen. Daraus ermitteln sie kollisionsvermeidende Steuerungsentscheidungen, die auch die Option beinhalten, einfach anzuhalten. Sie lernen dies in Simulationen und von menschlichen Fahrern, deren Verhalten sie bei realen Fahrten beobachten. Von der dazu eingesetzten Methodik abzuweichen, ist ihnen aber prinzipiell nicht möglich. Jedes ihrer Resultate ist als Ertrag einer Unsumme korrekt durchgeführter Kalkulationen eindeutig und nicht hinterfragbar. Die Mathematik bietet keinen Spielraum für Abwägungen, ohne die moralisches Handeln jedoch nicht auskommt. Ganz im Gegenteil wäre es überaus gefährlich, ein neuronales Netz dazu zu zwingen, Rechenergebnisse unter ethischen, also naturgemäß unscharfen Kriterien zusätzlich zu bewerten. Denn das würde erfordern, ihre durch langwieriges Training aufgebaute innere Struktur in beliebiger, unvorhersehbarer Weise zu verändern und damit nicht nur in kritischen, sondern in allen Situationen Fehler induzieren. Computer können eben nur „wenn/dann“. Aber nicht „sowohl/als auch“ oder „vielleicht/vielleicht auch nicht“.

Falls also tatsächlich einmal der überaus unwahrscheinliche Fall eintritt, in dem ein autonomes Fahrzeug auf keiner verfügbaren Trajektorie eine Kollision vermeiden kann, entscheidet der Zufall über das Geschehen. Es wird fast immer eine Vollbremsung einleiten, ohne die ursprüngliche Fahrtrichtung zu verändern. Pech hat also wahrscheinlich, wer genau im Weg steht, ganz gleich, um wen es sich handelt. Das nicht zu akzeptieren bedeutet, autonome Autos grundsätzlich abzulehnen.

Unterstützung
oder

Kommentare ( 37 )

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Andere bringen wir ungekürzt.
Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

----

Sortiert nach:   neuste | älteste | beste Bewertung

Gerade sprach ich mit meinem LapTop, er solle mich respektieren oder schlimmer noch, mir Zuwendung entgegenbringen. Der sagte, das sei im Preis nicht inbegriffen. Und die Moral von der Geschicht: überschätze Digitales nicht!

Wie soll es mit autonomen Fahrzeugen eigentlich versicherungstechnisch gehen? Wer ist schuld, wer haftet? Läuft es wieder mal auf Ungerechtigkeiten raus?

Sehr gute Frage, wer zahlt?

Wer anschafft zahlt.

Interessante Diskussion, allein deutschland hat da nichts Wesentliches beizutragen.
Versuchen Sie es selbst.

Googlen sie mal „Kuenstliche“ auf Google.de
Die ersten drei Vorschlaege:
Kuenstliche Intelligenz
Kuenstlicher Darmausgang [Nein, das ist keine Kritik an den Gruenen]
Kunestliches Koma [Nein, es geht hier nicht um die dt. Regierung]

Dasselbe im englischen Sprachraum oder gar chinesisch/Hongkong-Chinesischem Sprachraum bringt da ganz andere Dinge hoch.

Was finden Sie denn, wenn Sie nur „artificial“ eingeben?
Man muss, wenn schon, nach „künstliche Intelligenz“ suchen. Wobei aufgrund der Englisch-Lastigkeit der Informatik auch in Deutschland die Suche nach „artificial intelligence“ sinnvoll ist. Des weiteren die Suche nach „ki“ und „ai“.

Zuerst einmal sollte man die Theorie dahinter verstehen, welche der Artikel schon ganz gut veranschaulicht hat. Hat man diese nicht verstanden, versteht man auch nicht die Wirkungsweise der Algorithmen und noch weniger die möglichen Implikationen.

Das Ganze ist ein komplexer Sachverhalt.

Zum Studium empfehle ich noch folgende Seite: http://fann.sourceforge.net/fann_en.pdf

@Engel: Was hat das mit meinem Kommentar zu tun? Und was KNN angeht, diese Thematik kenne ich seit den 1980ern, damals schon gab es eine richtige Hype-Welle, die dann aber zu Recht massiv abgeebbt ist..

Als jemand, der sich seit über 35 Jahren auch mit Softwareentwicklung befasst, und der sich auch mit Bild- und Signalauswertung sowie diversen weiteren algorithmischen und rechentechnischen Aufgabenstellungen befasst hat und diese ganzen Debatten verfolgt, muss ich dazu doch einige Anmerkungen machen: a) Es wird immer mehr (teil-)automatische Steuerungen geben b) Die Erfassung der Umgebung wird immer genauer sein c) Dies wird zwangsläufig den Wunsch mit sich bringen, in bestimmten Situationen gute Entscheidungen zu treffen. Fiktives Beispiel: Ein Kind läuft vor ein nicht autonom fahrendes Auto und wird trotz vorhandener Bilderkennung umgefahren und ist jetzt querschnittgelähmt. Eine Analyse zeigt, dass der… Mehr

Jetzt ein kleiner Witz: Wertvolle Menschen werden in Zukunft Plaketten bekommen, anhand derer autonome System sie richtig einschätzen können. Dadurch werden ihre Entscheidungen viel nachvollziehbarer.

Ich setze noch einen kleineren Witz oben drauf:
China 2050, wenn in einer existenziellen „Schrödingers-Katze-Fuzzy-Logic – Straßenverkehrs-Entscheidungssituation der Rechner bestimmen muss, – unter Abstimmung mit mindestens 2 weiteren redundanten „Parallelrechnern“ -, welcher von 2 „Kandidaten“ dran „glauben wird“, vergleicht er die über die vom implantierten RFID-Chip gesendeten Social-Credit-Daten in Kombination des aktuellen Bio-Statusses (Alter, Gesundheitsszustand, zu erwartende „Restlaufzeit“) in einer Nanosekunde, welcher der beiden „Kandidaten“ die nächste Sekunde ins „Nirvana“ eingeht, gleich vor seinem Schöpfer steht, final den Löffel abgibt, ….

@Engel
Werden in China nicht schon Kreditpunkte für jedermann ermittelt – gewissermaßen „Schufa“-Punkte, die dem „gesellschaftl. Standing“ eines jeden Bürgers entsprechen? Da nun jeder Fahrer über kurz oder lang vermutlich ohnehin nur per Registrierung (qua Handy, pers. Code) in einem Auto (mit)fahren darf, könnten die entspr. Creditpoints in die Entscheidungen des autonomen Systems einfließen.

Künstliche Intelligenz ist nur so intelligent wie es der Programmierer war die die KI programmiert hat. Und bei Regen und Schneewetter…selbst bei Sturmwetter…bezweifel ich, dass die KI noch zu 100% funktioniert…alleine die Sensoren stellen bei Regen, Schnee, Eis, Sturm schon eine Gefahr für das gesamte autonome/KI Fahren da….die Beeinträchtigung des Sensoren von äußeren Einflüssen ist die Achillisferse der KI…des autonomen Fahren. Da reicht schon, wenn nur ein Sensor nicht arbeitet bzw. falsche Daten an den Hauptrechner meldet…das Ergebnis…die Entscheidung die dann die KI trifft kann fatale Folgen haben… Und man bedenke noch eines…Sensoren sind fest angebrachte Bauteile…mit einen eingeschränkten Radius…erst… Mehr

Man bedenke, das menschliche Auge ist auch ein Sensor mit begrenzter Reichweite.

Ich werde erst dann an „künstliche Intelligenz“ im Auto glauben, wenn diese während der Fahrt Witze generiert, die so pfiffig sind, dass ich darüber lachen kann.

Wenn „Alexa“ mich im „Lambo“ mit Maximum Top-Speed über die Interstate 466 kutschiert, die Zentralverriegelung einrastet, ungebeten meine letzten Dinge regelt und mich samt Lambo mit einem gehauchten „Last Farewell“ auf den Spuren von James Dean über die Leitplanke hinweg den Canyon ‚runter jagt, habe ich wohl mein Social-Credit-Guthaben zu sehr ins „Soll“ überzogen. Wer zuletzt lacht, stirbt dann wenigstens fröhlich. 😉

Es gibt jedenfalls ein Sprüchesammlung, die vorerst Ihren Ansprüchen genügen könnte.
Unter Linux (was? Sie benutzen das noch nicht?) fotune -a in der Konsole bringt ihnen ein Limmerick, eine Anekdote, einen faulen Spruch, eine Anregung oder eine Beleidigung.