Künstliche Intelligenzen sind zu dumm für menschliche Moralvorstellungen

Mathematik bietet keinen Spielraum für ethische Abwägungen. Wer Künstlichen Intelligenzen Moral beibringen möchte, ignoriert technische Grenzen. Und wird den Schaden erst anrichten, der doch eigentlich vermieden werden soll.

Getty Images

Wen sollte das autonome Fahrzeug nun töten, den Rentner oder die Frau mit dem Kinderwagen? Man kennt das ja als Autofahrer. Ständig steht man unterwegs vor eben diesem Dilemma. Fährt man den Fußgänger um, der die Straße vor einem überquert? Weicht man doch lieber in den Gegenverkehr aus, in die Personengruppe auf dem Fußweg oder setzt man seinen Wagen gar bewusst gegen den Baum, um niemanden zu gefährden außer sich selbst? Ach so, derartige Situationen kommen eigentlich nie vor? Ein Unfall geschieht, weil man ihn nicht vorhergesehen hat? In einer solchen Situation reagiert man ohnehin instinktiv, denn Zeit zum Nachdenken bleibt nicht? Ist man aber tatsächlich noch dazu in der Lage, unterschiedliche Optionen zu prüfen, besteht auch immer eine Chance, die Kollision zu vermeiden? Durch eine abrupte Verringerung der Geschwindigkeit beispielsweise?

Häretische Fragen aus der Sicht jener, die allen Ernstes empfehlen, hochautomatische oder gar autonome Autos erst auf die Straße zu lassen, wenn man diesen einprogrammiert hat, welches Opfer sie im Ernstfall bevorzugen sollen. Eine Forderung, die nicht nur weltfremd ist, sondern auch noch prinzipielle technische Limitierungen ignoriert. Denn das, was man heute als Künstliche Intelligenz (KI) realisiert, vermag sehr wohl ein Auto zu steuern, aber ethische Prinzipien kann es dabei nicht berücksichtigen. Weil es keine Möglichkeit gibt, solche mathematisch zu formulieren.

Formale Logiken eignen sich nur zur Abbildung von Handlungen, die einer eindeutigen Bewertung nach Kriterien wie „falsch“ oder „richtig“ zugänglich sind. Wenn „Ampel rot“, dann „anhalten“ ist ein simples Beispiel. Die Berücksichtigung zahlreicher weiterer Umgebungsinformationen, darunter das dynamische Verhalten anderer Verkehrsteilnehmer, erschwert die Angelegenheit natürlich enorm. Der Begriff „Künstliche Intelligenz“ steht für eine Reihe unterschiedlicher Rechenkonzepte, mit deren Hilfe aus sehr vielen Eingangsdaten ein bezüglich einer vorgegebenen Zielstellung geeignetes Resultat kalkuliert werden kann. Fallbasierte Expertensysteme ermitteln eine Antwort aus Vergleichen mit ähnlichen Problemstellungen. Evolutionäre Algorithmen erarbeiten potentielle Lösungen über rekursive Optimierungsschritte. Und die aktuell aufgrund ihrer Flexibilität populären neuronalen Netze reduzieren komplexe Situationen auf ihre wesentlichen Parameter. Alle diese Ansätze sind so alt wie der programmierbare Digitalrechner selbst. Alle diese Ansätze sind erst jetzt praktikabel umsetzbar, da die Kapazitäten und Geschwindigkeiten elektronischer Rechner ihren Leistungsansprüchen endlich genügen und außerdem ausreichend digitale Daten vorliegen, um sie zu füttern und zu trainieren. Aber keiner dieser Ansätze beruht wirklich auf der Imitation menschlicher Lösungsstrategien.

Man betrachte dazu exemplarisch die Verlängerung der folgenden Zahlenreihe, eine Aufgabe, wie sie in Standard-Intelligenztests häufig vorkommt: 1, 8, 27, 64, 125, … Wie lautet das nächste Glied der Kette? Richtig, es ist 216. Wie sind Sie darauf gekommen? Es handelt sich offensichtlich um die Folge der Kubikzahlen 1³, 2³, 3³, 4³, 5³ mit 6³=216 als zwingender Fortsetzung. Wie würde ein Programmierer diesen Auftrag für seinen Computer übersetzen? Der Rechner ist ja nicht dazu fähig, die Konstruktionsvorschrift zu ermitteln. Er hat schlicht keine Ahnung vom Konzept „Kubikzahlen“. Er kann aber die vorgegebenen Werte als Koordinaten ansehen und durch diese ausgleichende Kurven legen. Die beste Annäherung, definiert durch die kleinstmögliche Summe der Abstände aller Datenpunkte vom Verlauf der Kurve, wird für die Prognose des gefragten Wertes eingesetzt. Da y=x³ die obige Zahlenreihe nach diesem Kriterium am besten wiedergibt, landet auch der Computer bei 216.

Sehr schnell und entlang eines Weges, den ein Mensch niemals beschreiten würde.
Ein neuronales Netz, das beispielsweise auf die Erkennung von Katzenbildern trainiert wurde, „erkennt“ Katzen so wenig wie oben skizzierte Software Kubikzahlen. Jedes artifizielle „Neuron“ stellt lediglich einen Speicherplatz für eine Ziffer dar, die mit einem veränderbaren Faktor multipliziert, also mit einer variablen Gewichtung, an andere „Neuronen“ übertragen wird. Eine typische Topologie für neuronale Netze ist der Aufbau in Schichten. Jedes Neuron einer Ebene ist dabei mit jedem Neuron der nächstfolgenden verbunden. In der ersten Schicht werden die Eingangsdaten registriert. Die letzte Schicht trägt die Ausgangswerte. Die Ebenen dazwischen addieren und multiplizieren wild herum. Legt man einer solchen Konstruktion Graustufenbilder vor, die entweder mindestens eine oder eben gar keine Katze enthalten, repräsentiert jedes Neuron der ersten Schicht ein Pixel des Fotos und übernimmt dessen Helligkeitswert. Es handelt sich also je nach Auflösung des Bildes um hunderttausende oder gar Millionen Speicherplätze, die jeweils eine Zahl zwischen „0“ (schwarz) und „1“ (weiß) beinhalten. Am Ende sollen nur noch zwei Neuronen übrig bleiben, von denen das eine „1“ anzeigt, wenn im Bild eine Katze gefunden wird und das andere entsprechend mit einer „1“ das Resultat „keine Katze“ codiert.

Das Netzwerk wird nun mit Zufallswerten für alle Gewichtungen initialisiert. Es erzeugt entsprechend wirre Ergebnisse für die ersten Versuche. Aber es kann sich steigern, indem es die Gewichtungsfaktoren in geeigneter Weise verändert. Dazu definiert man eine „Kostenfunktion“, die die Abweichung des kalkulierten Ergebnisses vom gewünschten Resultat wiedergibt. Ein neuronales Netz macht also im Grunde nichts weiter, als das Minimum dieser Kostenfunktion zu suchen. Wie das erläuternde Bild zeigt, handelt es sich bei einem neuronalen Netzwerk um ein Werkzeug zur Multiplikation sehr großer Matrizen und Vektoren. Eine unter dem Begriff „lineare Algebra“ bekannte mathematische Disziplin. Aus der auch die Methoden stammen, mit denen es möglich ist, jene Gewichtungsfaktoren zu finden, deren Veränderung den größten Effekt auf die Kostenfunktion ausübt. So wird nach und nach das neuronale Netz immer besser darin, Katzenbilder korrekt als solche zu identifizieren. Aber hat es dabei wirklich gelernt, wie eine Katze aussieht? Findet sich das Bild einer Katze in den Gewichtungsfaktoren wieder? Man könnte ja vermuten, in den verdeckten Schichten würden zunächst Bildkanten identifiziert, aus diesen einfache Formen (Kreise, Rechtecke) abgeleitet, um schließlich zu den groben geometrischen Konturen einer Katze zu gelangen. Der detaillierte Blick in real existierende, gut trainierte Netzwerke aber zeigt nichts dergleichen. Sondern nur unstrukturiertes Rauschen in den Variablen. Wobei neuronale Netze nicht nur mit Gewichtungsfaktoren, sondern auch noch mit Schwellenwerten arbeiten und man manchen gar gestattet, bestehende Verbindungen zwischen einzelnen Neuronen zu kappen und neue zu knüpfen. Dadurch wird ihre Arbeitsweise noch undurchschaubarer. Das Innenleben eines neuronalen Netzwerks zeigt nicht an, was genau es leistet. Macht es einen Fehler, kann dieser nicht einfach auf einen Bug in der Programmierung zurückgeführt werden, sondern höchstens auf unzureichendes Training. Es gibt auch keine Stellschrauben in der Software, an denen man drehen könnte, um die Trefferquote zu erhöhen. Mehr Übung ist die einzige Option. Welche spezifischen Eigenschaften die für eine weitere Verbesserung geeigneten Trainingsdaten aufweisen müssen, ist ebenfalls nicht feststellbar. Ihre Erbauer vermögen also sehr genau zu beschreiben, was neuronale Netze eigentlich machen, aber nicht, wie sie zu einem bestimmten Ergebnis gelangen. Auf jeden Fall „denken“ sie nicht wie Menschen.

Tatsächlich bestimmen Computer, ob es nun um die Abstände von Datenpunkten zu Ausgleichskurven oder um die Kostenfunktion bei der Bildanalyse geht, unter Anwendung geeigneter mathematischer Methoden lediglich die Maxima oder Minima von Funktionen. Jedes Problem, das sich direkt oder indirekt in die Suche nach solchen Extremwerten überführen lässt, was unter anderem nahezu alle Aufgaben in klassischen Intelligenztests einschließt, vermögen Rechner zu bearbeiten. Alle anderen nicht. Künstliche Intelligenzen unterscheiden sich von herkömmlichen Algorithmen in der Fähigkeit, durch trickreich umgesetzte Verfahren sogar die Extremwerte äußerst komplexer Funktionen finden zu können. Sie sind eben deswegen „intelligent“, weil sie rein formal einen hohen Intelligenzquotienten erreichen könnten. Aber sie sind in keiner Hinsicht klug. Sie verfügen nicht über ein Weltmodell zur Einordnung ihrer Tätigkeit. Sie „wissen“ tatsächlich nichts über die Aufgabe, die man sie bearbeiten lässt und haben in dieser Hinsicht kein höheres intellektuelles Niveau als ein simpler Taschenrechner.

Neuronale Netze, die Automobile autonom bewegen, arbeiten mit Daten unterschiedlicher Sensoren. In dem so erhaltenen Umgebungsbild identifizieren sie potentielle Hindernisse mit genau der Vorgehensweise, die andere Künstliche Intelligenzen bei Katzenfotos einsetzen. Daraus ermitteln sie kollisionsvermeidende Steuerungsentscheidungen, die auch die Option beinhalten, einfach anzuhalten. Sie lernen dies in Simulationen und von menschlichen Fahrern, deren Verhalten sie bei realen Fahrten beobachten. Von der dazu eingesetzten Methodik abzuweichen, ist ihnen aber prinzipiell nicht möglich. Jedes ihrer Resultate ist als Ertrag einer Unsumme korrekt durchgeführter Kalkulationen eindeutig und nicht hinterfragbar. Die Mathematik bietet keinen Spielraum für Abwägungen, ohne die moralisches Handeln jedoch nicht auskommt. Ganz im Gegenteil wäre es überaus gefährlich, ein neuronales Netz dazu zu zwingen, Rechenergebnisse unter ethischen, also naturgemäß unscharfen Kriterien zusätzlich zu bewerten. Denn das würde erfordern, ihre durch langwieriges Training aufgebaute innere Struktur in beliebiger, unvorhersehbarer Weise zu verändern und damit nicht nur in kritischen, sondern in allen Situationen Fehler induzieren. Computer können eben nur „wenn/dann“. Aber nicht „sowohl/als auch“ oder „vielleicht/vielleicht auch nicht“.

Falls also tatsächlich einmal der überaus unwahrscheinliche Fall eintritt, in dem ein autonomes Fahrzeug auf keiner verfügbaren Trajektorie eine Kollision vermeiden kann, entscheidet der Zufall über das Geschehen. Es wird fast immer eine Vollbremsung einleiten, ohne die ursprüngliche Fahrtrichtung zu verändern. Pech hat also wahrscheinlich, wer genau im Weg steht, ganz gleich, um wen es sich handelt. Das nicht zu akzeptieren bedeutet, autonome Autos grundsätzlich abzulehnen.

Unterstützung
oder

Kommentare ( 37 )

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Andere bringen wir ungekürzt.
Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

----

37 Kommentare auf "Künstliche Intelligenzen sind zu dumm für menschliche Moralvorstellungen"

Sortiert nach:   neuste | älteste | beste Bewertung

Somit haben KI’s eigentlich die Hypermoral die sich doch so viele wünschen: Alle Menschen sind für sie notwendigerweise gleich und werden auch gleich behandelt. Einfach, weil sie nicht anders können.

Künstliche Intelligenzen sind nicht nur zu dumm für menschliche Moralvorstellungen, wie der Autor richtig schreibt, sondern damit ausgerüstete Fahrzeuge dürften es schwer haben, unter den heutigen Bedingungen überhaupt auf die Strasse zu gelangen, Denn um Software aus dem Automotivbereich auf die Menschheit loszulassen, muss diese zuvor getestet werden. Dies schreiben die Standards zur funktionalen Sicherheit im Automotivbereich vor. Getestet wird grundsätzlich gegen das Laufzeitmodell der implementierten Softwareversion. Die in den entsprechenden Testszenarien abgebildeten Testfälle, können in unscharfen Logiken aber nicht den gesammten Vorrat der zur Laufzeit möglichen Szenarien abbilden, weil es eben unscharfe Logiken sind und es immer Fälle geben… Mehr

Ich kenne mich mit KI nicht aus. Aber der Artikel ist bisher das verstaendlichste was ich dazu gelesen have.

Das Gehirn ist letztlich doch auch ein neuronales System. Sollten wir also besser den ganzen Krampf mit Ethik einfach sein lassen?

Ich erlaube mir mal etwas flapsig zu ein:

In der Vergangenheit getroffene und dokumentierte Entscheidungen zu gespeicherten Fällen können blitzschnell getroffen resp. abgerufen werden.

Vielen Dank für den detaillierten Artikel.

Ich stimme sehr mit Ihnen überein, dass autonome Systeme Moralische Entscheidungen nicht im Sinne der Menschen treffen können (vielleicht sollte man da ein paar wirklich gute Philosophen zu Rate ziehen?).

An einer Stelle irren Sie allerdings: „Macht es einen Fehler, kann dieser nicht einfach auf einen Bug in der Programmierung zurückgeführt werden, sondern höchstens auf unzureichendes Training. Es gibt auch keine Stellschrauben in der Software, an denen man drehen könnte, um die Trefferquote zu erhöhen.“

Es tausende softwaretechnische Stellschrauben, um die Effizienz der Trefferquote zu erhöhen.

Lieber Herr Heller, dann sind Sie wohl kein Fan der Theorien von Ray Kurzweil, der ja schon in den Neunzigern diese Fragen diskutiert hat (The Age of Spiritual Machines“) und das Nachenken über die Singularität sehr stark befördert hat. Mit und für Google arbeitet er an der Weiterentwicklung der AI und wenn die AI auch heute noch vorwiegend auf Auswertung grossen Datenmengen und Lerneffekten daraus basiert, ist eine Weiterentwicklung in Richtung eigenständiger Künstlicher Intelligenz durchaus denkbar. Das jedenfalls hat Oxford-Prof. Nick Bostrom gemacht, der in „Superintelligenz“ verschiedene Szenarien einer alle menschliche Intelligenz übersteigende AI diskutiert. Eine solche AI könnte z.B.… Mehr
Es gibt keine „künstliche Intelligemz“. Das ist ein Bullshit-Begriff, der von Betrügern und Scharlatanen erdacht wurde, um Forschungsgelder abzufassen. Bestenfalls gibt es Teilgebiete, wie Musterkennung, maschinelles Lernen und andere gut algorithmierbare Aufgaben. Ihre Gurus sind Heißluftgebläse. Eine „künstliche“ Intelligenz müsste ein Abbild von sich selbst haben und zur Selbstreflexion fähig sein. Es müsste also sich selbst in Wechselwirkung mit seiner Umgebung verstehen. Wir sehen hier bei diesen Entwicklungen dasselbe Phänomen wie bei der Regelungstechnik. Die Betrachtung des Reglers allein, so „intelligent“ er immer sein mag, sagt NICHTS über sein Verhalten im geschlossenen Kreis aus. Dazu ist IMMER auch die Kenntnis… Mehr
Es gibt ein grundlegendes Problem in der Wissenschaft, und das ist der Mensch. Wir schaffen es bis heute nicht Krankheiten wie den Krebs zu heilen aber gleichzeitig wollen wir Gott spielen. Viele Wissenschaftler können einfach nicht zugeben, das sie eigentlich sich immer im Kreis drehen. Was war zuerst da, das Ei oder das Huhn? Wer Gott aus seinen Überlegungen ausschlieśt, der wird nie wirklich das ganze Universum verstehen. Die Bibel gibt klare Antworten auf solch einfache Fragen, die Wissenschaft hat immer nur Theorien zu bieten aber keine entgültigen Ergebnisse. Selbst Einstein hat nur Theorien aufgestellt, der Beweis dafür das sie… Mehr

So reden die Leut‘ halt daher, lieber Mirko – was soll’s.

Auf welche Fragen gibt die Bibel denn Antworten,abseits von einigen alten Lebensweisheiten.Die Theorien von Einstein könnten zum größeren Teil bewiesen werden.Ausserdem steht in der Bibel wohl kaum irgendetwas wesentliches über die Physik.Nee,das war nicht sehr überzeugend.

Gott ist eben auch eine Theorie. Und so könnte man behaupten , dass sich Gläubige immer nur im Kreis drehen, weil sie es einfach nicht zugeben können.

Wir WERDEN zum MARS fliegen (fahren?), auch wenn SIE es eventuell nicht mehr erleben.

Der Rest Ihres elaborats ist leider sehr unzusammenhängend: „Atomkraft, Kernfusion wo sind diese Technologien heute, vor 50 Jahren war das noch die Zukunft der Menschheit. Nein, die Wissenschaft hat sich leider nicht weiterentwickelt, sie ist ein Spuelball der Politik und der Wirtschaft geworden.“

Bitte, werter Mirko96, gehen Sie in sich, und lesen Sie.

Angeblich kann man ja mit Computer ausrechnen, wie viele Menschen in Deutschland an NOx sterben.
Der Computer wäre wirklich intelligent, wenn er dem Operator sagen würde, du musst aber auch ausrechnen, wie viele sterben, wenn man den Individualverkehr incl. Rettungsfahrzeuge einschränkt oder abschafft…

Die Moralfrage ist an sich schon falsch. Weil eben Moral nicht berechenbar und deshalb mit Sicherheit auch nie richtig sein wird. Welches von den Zwillingen (die 3 und 4 Kinder haben, aber nicht dabei) verdient es zu leben? Und aus ist es mit der Moral. Und der Autor braucht gar nicht an die KI zu denken, sondern schlicht an die Berufsunfähigkeitsversicherung. Da gibt es auch keine Moral und das war schon immer so. Der 80 jährige Renter ist eben statistisch weniger Wert als die 20 jährige Studentin. Obgleich der Renter ggf. mehr in die Sozialkasse gezahlt hat als die Studentin… Mehr

Nur stabile Mobilfunknetze ermöglichen autonomes Fahren. Da hat der Osten schon mal einen Standortvorteil. Ansonsten ist bekanntlich KI zu einem nicht in der Lage, zur Differenzierung. Letztlich liefe das Niveau auf denen von Bots, die einer Absolventin von Einhornwissenschaften oder dergleichen entsprechen. Sehe keine Gefahr, das erledigt sich von selbst.

„Nur stabile Mobilfunknetze ermöglichen autonomes Fahren.“ ?? Seit wann das? Und wie ist der technische Zusammenhang?

Das ist ein Widerspruch in sich.

Autonom bedeutet ohne äußere Einwirkung, also gänzlich unabhängig von irgendwelchen Informationsübertragungsnetzen.

Ich denke aber, dass die Begriffe wie so oft einfach schlampig gebraucht werden, und mit „autonom“ eigentlich „automatisch“ (d.h. ohne menschliches Zutun) gemeint ist.

@Kapitaen Notaras: Der Begriff „autonomes Fahren“ bedeutet, dass nach Festlegung des Ziels die Informationsverarbeitung des Fahrzeuges ohne Menschen auskommt, dies ist auch die Bedeutung des Begriffes (voll)automatisch. Der Begriff autonom bezieht sich hier also auf die Informationsverarbeitung und nicht z.B. auf die Energieversorgung.
Externe Funknetze oder funkbasierte Technologies (z.B. RFID, NFC) können dabei unterstützend sein (insbesondere z.B. in Fabrikhallen oder auf einem Werksgelände), allerdings habe ich noch nie davon gehört, dass die normalen Mobilfunknetze miteinbezogen wurden, höchstens für die Übertragung von Verkehrsnachrichten, aber selbst dann würde keine Firma sich von der Funktionsfähigkeit dieser abhängig machen.

@bhayes:

Ich meinte auch keine Energieflüsse, sondern ausschließlich Informationsflüsse.

Was die Navigation in Fabriken angeht, da ist die englische Sprache präziser (AGV – automatically guided vehicles), und was öffentlichen Verkehr angeht, da gab es schon Ende des vergangenen Jahrtausends ein hauptsächlich vom DARPA gefördertes Project namens „Automated Highway“ (und eben nicht „autonomous Highway“).

Ich meine also genau das, was ich geschrieben habe.

@Kapitaen Notaras: Ich habe Ihnen nicht widersprochen; mir ging es mehr darum, anderen Lesern ergänzende Erläuterungen die Sachverhalte noch klarer zu machen.