Tichys Einblick
Terrorwarnung für europäische Hauptstädte

Wie gefährlich ist eine „Bedrohungslage“?

Die Polizei in Wien warnt vor einem möglichen Anschlag oder Attentat für die Zeit zwischen den Jahren. Wieviel Risiko für die Bevölkerung sollen die Behörden in Kauf nehmen - oder sofort reagieren? Eine Antwort mit Hilfe der Mathematik.

Die Wiener Polizei warnt die Bevölkerung mit einer Pressemitteilung und stützt ihre Einschätzung auf die Angaben eines „befreundeten Dienstes“. Der hatte an „zahlreiche europäische Hauptstädte“ die Mitteilung gegeben, es könne zwischen Weihnachten und Neujahr zu einem „Attentat mit Sprengstoff bzw. zu einem Schussattentat“ kommen. Wie sollen die Behörden darauf reagieren – so offen wie in Wien? Verschweigen? Ignorieren oder sofort U-Bahnen und Veranstaltungen wie Fußballspiele sperren – wie in Hannover nach den Anschlägen von Paris?

Auf jede Terrorwarnung reagieren?

Die naive Sicht lautet, dass man jede Terrorwarnung zu 100% Ernst nehmen muss und sofort das volle Programm an Vorsichtsmaßnahmen einzuleiten hat. Die einfache Intuition dahinter lautet, dass einmal zu viel gewarnt weniger schlimm ist als einmal zu wenig gewarnt, weil eine versäumte Warnung viele Menschleben kostet und man daher bei dieser Güterabwägung besser immer auf der vorsichtigen Seite liegen sollte.

Leider ist das so nicht umsetzbar. Denn man hat immer eine mehr oder weniger unklare Lage. Es gibt fast immer irgendwelche Anzeichen für eine Bedrohungslage. Das ist nicht nur bei Terroranschlägen so, sondern grundsätzlich im Leben. Jede Handlung ist mit irgendwelchen Risiken verbunden, und so muss man immer Risiko und Nutzen gegeneinander abwägen. Das gilt für das Verlassen des Hauses genauso wie für den Brückenbau, den Aktienhandel oder eben bei der Terrorbekämpfung.

Wieviel Risiko nehmen wir in Kauf?

Deshalb muss man in jeder Situation ein bestimmtes Risiko vorgeben, das man bereit ist zu akzeptieren, und dann die vorhanden unklaren Signale so auswerten, dass man unterhalb dieser Schwelle das Risiko in Kauf nimmt und erst darüber die Reißleine zieht.

Falls Ihnen das emotional widerstrebt, stellen Sie sich bitte vor, die verantwortlichen Stellen würden tatsächlich bei dem kleinsten Bedrohungshinweis einen Alarm auslösen. Dann gäbe es fast ständig irgendeinen Alarm. Kein Mensch könnte und würde diese Alarminflation noch ernst nehmen. Es wäre das gleiche wie die fest angenagelten Schilder „Vorsicht: frisch gebohnert“, die nichts mehr damit zu tun haben, ob wirklich gerade gebohnert wurde oder nicht. Es würde kein Fußballspiel mehr geben und keinen öffentlichen Nahverkehr mehr, weil sich niemand mehr darauf verlassen könnte, dass die Aktivität diesmal stattfindet oder wieder einmal überstürzt abgesagt wird.

Lernen aus unklaren Signalen

Man darf eine Warnung oder weitere Maßnahmen also erst aussprechen, wenn eine bestimmte Wahrscheinlichkeit überschritten wird, dass tatsächlich eine Sondersituation vorliegt. Es gibt verschiedene Methoden, wie man in der Realität ein derartiges Risikomanagement betreibt. In vielen Alltagssituationen machen wir das völlig intuitiv, in anderen gibt es mathematische Modelle, mit denen man versucht, den Prozess möglichst vernünftig zu steuern – in beiden Fällen mit mehr oder weniger großem Erfolg, weil alle Risikomodelle ihre eigenen Stärken und Schwächen haben.

Im Folgenden stelle ich ein Verfahren aus der Statistik vor, das in irgendeiner Form hinter vielen dieser Modelle steckt: den Satz von Bayes.

Dieses mathematische Theorem beschreibt, was man aus Beobachtungen in unklaren Situationen lernen kann. Die unklare Situation im Fall einer Terrorbedrohung besteht darin, dass es bestimmte Hinweise gibt, die aber fehlerbehaftet sind. Es gibt zwei Typen von Fehlern. Fehlertyp 1: Es liegt tatsächlich ein geplanter Anschlag vor und wir erhalten keinerlei Hinweis vorab; Fehlertyp 2: Es ist kein Anschlag geplant, wir erhalten aber trotzdem einen Hinweis. Wie soll man die Hinweise in einer solchen Situation bewerten?

Man kann die Situation als Entscheidungsbaum darstellen und dann mit besagtem Satz von Bayes die Wahrscheinlichkeit errechnen, mit der die Bedrohungslage einen bestimmten vorgegebenen Schwellwert überschreitet und man den Alarm auslöst. Dafür muss man sich über drei Wahrscheinlichkeiten klar sein:

  1. Mit welcher Wahrscheinlichkeit liegt eine Bedrohung vor, unabhängig von allen Signalen? Diese Wahrscheinlichkeit ist letztlich eine subjektive Schätzung aus den Erfahrungen der Vergangenheit. Sie ist der Startwert, vor dessen Hintergrund wir die beobachteten Warnungen und Drohungen bewerten. Gehen wir für die folgenden Überlegungen einmal davon aus, dass die Vorab-Vermutung für eine Gefahr 1% beträgt. (Was natürlich für die Vergangenheit viel zu hoch ist, denn es wurde keineswegs jedes hundertste Fußballspiel angegriffen; allerdings reagiert das Modell verhältnismäßig schwach auf diese Größe).
  2. Mit welcher Wahrscheinlichkeit erkennen wir es, wenn tatsächlich ein Anschlag geplant war? Gehen wir hier einmal davon aus, dass die Geheimdienste ihr Geld wert sind und ein genau suchender Agent einen Hinweis auf einen geplanten Anschlag mit einer Wahrscheinlichkeit von 80% entdeckt.
  3. Mit welcher Wahrscheinlichkeit erhalten wir eine Warnung, obwohl gar keine wirkliche Gefährdung vorliegt? Die Wirkung dieser „falschen Positiven“ sehen wir uns gleich etwas genauer an und werden dabei sehen, dass sie einen ganz wesentlichen Einfluss auf unsere Aufklärungsarbeit hat.

Zugegeben, dieses Modell vereinfacht sehr stark, zum Beispiel weil es unterschiedliche Qualitäten in den Informationsquellen gibt und weil man nie genau weiß, ob zwei Informationsquellen wirklich unabhängig voneinander waren. Aber an diesem einfachen Modell kann man die Wirkung der verschiedenen Einflussfaktoren bereits erkennen.

Einige Aufklärungsszenarien im Vergleich

Gehen wir zunächst einmal davon aus, dass es fast keine falschen Positiven gibt, also fast kein Fehlalarm-Signal (die Wahrscheinlichkeit für ein falsch-positives Signal betrage 1%). Als Schwellwert geben wir uns selbst vor, einen Alarm auszulösen, wenn die Wahrscheinlichkeit für eine tatsächliche Bedrohung mindestens 50% beträgt. Wir ziehen also erst die Reißleine, wenn die Wahrscheinlichkeit für einen Anschlag größer ist als dafür, dass es keinen gibt. In der Realität wird unser kritischer Wert sicherlich wesentlich niedriger liegen, aber man kann an diesen Zahlenwerten den Zusammenhang besser erkennen.

Wir schicken nun Polizisten und Agenten los, um nach Hinweisen zu suchen. Der erste kommt zurück und bringt einen konkreten Hinweis. Wie groß ist jetzt die Bedrohung? Nach dem Satz von Bayes (dessen Formel ich hier einfach weglasse und nur die Zahlenwerte angebe) beträgt nach dieser Information die Gefährdungswahrscheinlichkeit etwa 45%. Das ist zwar viel, aber gerade noch unter unserer Schwelle von 50%. Wir warten also auf den nächsten Polizisten. Der kommt auch gehetzt hereingestürmt und berichtet ebenfalls von einer Gefährdung. Unser Algorithmus schlägt jetzt voll aus und springt auf 98% Gefährdung. Aber das bedrohte Fußballspiel findet erst übermorgen ab, wir können also noch auf die Ergebnisse weiterer Feldagenten warten.

Wie viele müssen uns berichten, dass sie zwar genau gesucht, aber nichts gefunden haben, damit wir wieder unterhalb unserer Alarmschwelle liegen? In dem Zahlenbeispiel sind es drei: Wenn die nichts gefunden haben, dann sinkt unserer Gefährdungswert wieder auf 35%. Besonders dieser Teil des Ergebnisses wird viele überraschen, weil man immer das Gefühl hat, dass Nicht-Finden viel weniger informativ ist als Finden. Vermutlich ist das bei uns eine angeborene Schutzvorrichtung, die uns hier intuitiv lieber auf der sicheren Seite handeln lässt. Aber wie gesagt, das Modell vereinfacht stark; vielleicht gibt es wirklich gute Gründe, die Entwarnungen nicht so ernst zu nehmen wie Warnungen. Daher ignorieren wir hier einmal diesen Teil und kümmern uns nur darum, wie viele unabhängige Warnsignale wir brauchen, um unseren Alarm-Schwellwert zu überschreiten.

Ein mathematischer Hebel

Die Konstellation von eben (1% Wahrscheinlichkeit für falsche Warnsignale) war fast eine Idealwelt in Bezug auf die Alarmauslösung. Denn die Polizei entdeckt die meisten Anschlagversuche vorher und fällt fast nie auf falsche Hinweise herein. Was aber, wenn die falschen Hinweise wahrscheinlicher werden? Erhöhen wir die Wahrscheinlichkeit für falsche Hinweise einmal auf 10%. Erstaunlicherweise tut sich erst einmal nicht sehr viel, sondern wir brauchen lediglich eine Beobachtung mehr, bevor wir einen Alarm auslösen.

Was aber wenn die Wahrscheinlichkeit für einen falschen Alarm auf 50% hochgeht? Wir brauchen jetzt insgesamt 10 Warnhinweise, bevor wir uns zu mehr als 50% sicher sein können, dass tatsächlich ein Anschlag geplant ist; erst bei 16 Hinweisen sind wir zu 90% sicher. Wir können den Hinweisen nicht mehr trauen.

Das ist sehr viel schlimmer als es zunächst aussieht. Denn im ersten Fall konnten wir uns einigermaßen gut gegen Anschläge schützen; bei einer hohen Fehlerquote in den Bedrohungssignalen geht das nicht mehr. Denn jetzt müssen die Verteidiger überall mit einem Anschlag rechnen. Wichtig ist, dass dies bei gleicher Qualität der eigentlichen Aufklärungsarbeit gilt; unser Geheimdienst liefert uns nach wie vor mit 80% Wahrscheinlichkeit ein Warnsignal vor einem tatsächlichen Anschlag. Aber eben leider auch zu 50%, wenn gar keiner stattfinden wird.

Besonders unangenehm ist das, weil die zweite Größe ja nicht zufällig entsteht, sondern durch die Terroristen gesteuert wird. Einen Anschlag zu verüben ist „teuer“ für die Terroristen; einen vorzutäuschen hingegen nicht. Deshalb ist das Legen falscher Spuren die Größe, mit der sie die Wirkung der echten Anschläge vervielfachen können. Es ist das prototypische Beispiel eines mathematischen Hebeleffekts.

Was kann man tun?

Was hier vorliegt, ist der Effekt des „Feindes in den eigenen Reihen“. Das Hauptproblem für die Verteidiger besteht darin, dass die eigene Aufklärungsarbeit durch Fehlsignale gestört wird. Daher ist es kein Wunder, dass Desinformation eine wichtige geheimdienstliche Vorgehensweise ist. Durch Desinformation kann man mit verhältnismäßig einfachen und billigen Mitteln die Wirkung auch einer sehr guten Aufklärungstätigkeit der Gegenseite empfindlich herabsetzen.

Durch diese Störungen kommt es für die Verteidiger auf einmal nicht mehr allein darauf an, bevorstehende Angriffe zu erkennen, sondern es kommt ebenso stark darauf an, die Vortäuschung eines Angriffs zu erkennen. Am Ende hängt die Wirksamkeit der eigenen Aufklärung davon ab, wie groß der Wahrscheinlichkeitsabstand zwischen den „richtigen Positiven“ und den „falschen Positiven“ ist.

Wie schützt man sich gegen Desinformation? Die naheliegende und verbreitete Methode besteht darin, dass sich Menschen, die in einem Team zusammenarbeiten, durch Merkmale kennzeichnen, die nicht leicht durch andere imitierbar sind. In einer Armee wird zum Beispiel ein Codewort vereinbart, das leicht durch Muttersprachler der eigenen Sprache verwendet werden kann, aber nur schwer für einen mit anderer Sprache. Es wird zum Beispiel ein Wort wie „Sommerwind“ vereinbart, von dem der Fragende nur „Sommer“ sagt und der Antwortende „Wind“ ergänzt. Eine gemeinsame Sprache oder gleichartiges Aussehen ist hier ein effektiver Schutz. Deshalb war es für die DDR auch viel einfacher in Westdeutschland Desinformation zu betreiben als für Russland.

Das gibt es auch bei Tieren. Der Verhaltensforscher Konrad Lorenz beschreibt, dass sich Ratten einer Familie am Geruch erkennen. Damit vermeiden sie die Infiltration durch Ratten einer fremden Gruppe (und greifen diese erbarmungslos an, wenn sie sich im fremden Revier befinden).

Einfache Erkennungsmerkmale von „Freund und Feind“ sind eine gute Abwehrstrategie gegen Desinformation, weil sie die Kosten für das Legen falscher Fährten erheblich erhöhen. Das gefährlichste andere Extrem ist der Bürgerkrieg, in dem die beiden Parteien auch von innen kaum noch voneinander zu unterscheiden sind. Hier sind falsche Fährten nicht nur sehr viel überzeugender zu legen, sondern die Fährtenleger werden auch bei der Handlung selbst viel schwerer erkannt. Man stelle sich ein Fußballspiel vor, bei dem beide Mannschaften das gleiche Trikot tragen. Es würden sich garantiert Spieler darauf konzentrieren, durch ihr Verhalten die Zugehörigkeit zur anderen Mannschaft vorzutäuschen – nur um dann im entscheidenden Augenblick wieder im Sinne ihrer eigentlichen Mannschaft zu handeln.