Die technischen Grenzen der volatilen Stromerzeugung

So wenig, wie der Mensch von unverdaulicher Nahrung leben kann, so wenig hilft dem Hochofen eine Befeuerung mit Stroh. Diesen Umstand berücksichtigen die Befürworter einer Umstellung auf regenerative Energieträger nicht. Energie muss in der für den jeweiligen Einsatzzweck geeigneten Form und bestimmten Qualität bereitgestellt werden.

Energie ist nicht gleich Energie. Es genügt nicht, über sie in bedarfsgerechter Menge zu verfügen. Energie muss zusätzlich in einer für den jeweiligen Einsatzzweck geeigneten Form und in einer bestimmten Qualität bereitgestellt werden. So wenig, wie der Mensch von unverdaulicher Nahrung leben kann, so wenig hilft dem Hochofen eine Befeuerung mit Stroh. Diesen Umstand berücksichtigen die Befürworter einer Umstellung auf regenerative Energieträger nicht.

Potentielle Primärenergiequellen sind beispielsweise hinsichtlich der mit ihnen erreichbaren Prozesstemperaturen zu bewerten. Bei Raumtemperatur wäre eine Wärmemenge von einem Kilojoule völlig nutzlos, bei mehreren hundert Grad dagegen für viele Anwendungen tauglich. Und Strom bedarf einer konstanten, im gesamten Verteilnetz einheitlichen Frequenz von fünfzig Hertz. Sonst funktionieren weder die Regelungs- und Schaltmechanismen der Netzinfrastruktur, noch die meisten der bei den Endverbrauchern eingesetzten Geräte.

Vier Spannungsebenen

Auf vier unterschiedlichen Spannungsebenen verbindet das Stromnetz Erzeuger und Verbraucher. Private Haushalte und kleine Gewerbetriebe sind an das Niederspannungsnetz (230 Volt) angeschlossen. Dieses bezieht seine Energie aus dem Mittelspannungsbereich (1.000 bis 50.000 Volt), in das neben kleineren städtischen Kraftwerken auch große Solarparks und Windkraftwerke einspeisen. Kraftwerke mittlerer Größe bilden das Hochspannungsnetz (110.000 Volt), auf das Eisenbahn und Schwerindustrie zugreifen. Von der obersten Ebene aus, dem Höchstspannungsnetz (220.000 bis 380.000 Volt), dirigieren die leistungsstarken Kohle-, Kern- und Wasserkraftwerke das gesamte Geschehen.

In ihnen drehen sich von Dampf- oder Wasserturbinen getriebene magnetische Läufer in großen Spulen, in denen sie „Strom“ in Form eines elektrischen Wechselfeldes induzieren. Ihre Umlaufgeschwindigkeit bestimmt die Netzfrequenz. Zweipolige Läufer müssen in allen Kraftwerken einheitlich fünfzigmal in der Sekunde rotieren (entspricht 3.000 Umdrehungen pro Minute). Zusätzlich haben sie das auch noch synchron zueinander durchzuführen, damit sich die erzeugten Wechselspannungen nicht ungünstig überlagern. Der Generator im alpenländischen Wasserkraftwerk und der im hamburgischen Kohlemeiler sind nicht nur gleich schnell, sie befinden sich auch in derselben Phasenlage.

Im Generator selbst stellt sich dem Läufer durch das induzierte elektromagnetische Feld der Spulen eine Widerstandskraft entgegen. Nur wenn diese Bremswirkung mit der von der Turbine ausgehenden Beschleunigung im Gleichgewicht steht, kann eine konstante Drehzahl gewährleistet werden. Laständerungen im Netz durch Zu- oder Abschalten von Verbrauchern oder Erzeugern erhöhen oder vermindern die bremsenden Kräfte und müssen durch eine entsprechende Regelung der Turbinendrehzahl über die Dampf- oder Wasserzufuhr ausgeglichen werden.

Ökonomisches und Technisches greifen ineinander

Unser Stromnetz ist ein evolutionär gewachsenes System. Man kann seine Eigenschaften nur verstehen, wenn man ökonomische und technische Faktoren gleichermaßen betrachtet. Zur Minimierung von Transportverlusten und aufgrund seiner einfachen Transformierbarkeit entschied man sich für Wechselstrom. Die Netzfrequenz könnte auch höher oder tiefer liegen. Hauptsache, sie ist überall gleich und in sehr engen Grenzen zeitlich konstant (50 +/- 0,02 Hertz in Deutschland). Die einzelnen Spannungsebenen prägten sich im vergangenen Jahrhundert gemäß der zur Verfügung stehenden Technologien und den Bedarfen der Verbraucher aus. Die Entwicklung erfolgte entlang der Prämisse, Qualität, Kosten und Resilienz gleichermaßen zu optimieren.

Ein anzunehmender Schadensfall betrifft den Ausfall eines größeren Kraftwerks. Die verbleibende Netzlast würde sich auf weniger Generatoren verteilen, die sich daher unmittelbar einer größeren Bremskraft ausgesetzt sähen. Ihre Rotationsgeschwindigkeit und damit die Netzfrequenz würden sinken. Fällt diese unter den Schwellenwert von 49,98 Hertz, droht der Zusammenbruch: In Sekundenbruchteilen, in denen niemand die Chance hätte, rettend einzugreifen. Auch nicht automatische Systeme, denn so schnell kann die Zufuhr von Dampf oder Wasser in die großen Turbinen nicht variiert werden. Zur Vermeidung schwerer technischer Schäden wären Verbraucher und Erzeuger abzutrennen. Ein Blackout, aber immerhin könnte man das Netz nach und nach wieder aufbauen und neu stabilisieren.

Da sich die Lasten im Netz ständig ändern, da Probleme in konventionellen Kraftwerken durchaus auftreten und da vor allem in jüngster Zeit volatile Quellen erratisch Energie einspeisen, überrascht die doch immer noch geringe Zahl an zudem häufig nur kurzfristigen Stromausfällen. Tatsächlich ist das geschilderte Szenario gerade deswegen relativ unwahrscheinlich, weil es die großen Turbosätze in den leistungsstarken Kohle-, Wasser- und Kernkraftwerken gibt. Bevor diese auf den Lastwechsel reagieren, vergehen aufgrund ihrer Massenträgheit noch einige Sekunden. Das Netz stabilisiert sich in einem gewissen Umfang selbst und verschafft den Operatoren damit ausreichend Zeit für geeignete Gegenmaßnahmen.

Deren erste darin besteht, die sogenannte Primärregelung in Gang zu setzen. Dabei handelt es sich um zusätzliche Kapazitäten, die innerhalb von dreißig Sekunden in vollem Umfang zur Verfügung stehen müssen. Da dies kein Kraftwerk durch einen Kaltstart schaffen kann, nutzt man Erzeuger, die bereits in Betrieb sind und noch über entsprechende Reserven verfügen. Aufgrund der Anforderungen an Geschwindigkeit und Ausmaß der Aktion ist diese Eingriffsebene die Domäne der Kohle- und Kernkraftwerke. Deswegen betreibt man sie im Mittel etwa 2,5% unterhalb ihrer Maximalleistung. In Deutschland sind (ein Erfahrungswert) 700 MW Primärregelleistung erforderlich: Zu deren Absicherung also thermische Erzeuger mit einer Leistung von 28 GW benötigt werden. Das entspricht nicht zufällig ungefähr der Kapazität, die ohnehin rund um die Uhr zur Abdeckung der Grundlast das Netz speist. Es ist gleichermaßen sinnvoll wie notwendig, genau diese Flotte von Kohle- und Kernkraftwerken zur Vorhaltung der Primärregelenergie einzusetzen.

Die nächsten Ebenen der Sekundär- und der Tertiärregelung müssen innerhalb von fünf beziehungsweise fünfzehn Minuten liefern. Bauartbedingt eignen sich dafür Wasser- und Gaskraftwerke (Erdgas, Biogas, Müll, Klärgase u.ä.). Sobald diese eingreifen, wird die primäre Ebene wieder in den Bereitschaftsstatus zurückgeführt.

Windräder und Photovoltaikanlagen müssen dem Takt der Großkraftwerke folgen

Aufgrund ihres volatilen Charakters sind weder Windräder noch Photovoltaikanlagen dazu in der Lage, die Definition der Netzfrequenz übernehmen. Sie müssen dem Taktstock der Großkraftwerke folgen. Auch leisten sie keinen Beitrag zur Trägheitsreserve und zur Regelenergie.

Nur die Kernenergie oder die Kohle können die Stabilität des Systems nach dem beschriebenen Konzept gewährleisten. Es ist nicht möglich, aus beiden gleichzeitig auszusteigen, ohne die Versorgungssicherheit massiv zu gefährden.

Das noch immer gültige Energiekonzept der Bundesregierung aus dem Jahr 2010 sieht daher auch für 2050 noch Kohlekraftwerke mit einer Kapazität von mehr als 15 GW vor. Bei der angestrebten Reduzierung der inländischen Stromproduktion um die Hälfte könnte dies als Trägheits- und Primärregelreserve gerade ausreichen. Die aktuell seitens der Umweltministerin vertretene Idee, die Kohleverstromung in 25 Jahren zu beenden, ist entweder technischem Unwissen oder schlichter Verantwortungslosigkeit geschuldet. Gleiches gilt für die zahllosen, häufig von Umweltaktivisten induzierten Studien, in denen Utopien einer hundertprozentigen Versorgung aus regenerativen Quellen entwickelt werden. Die Frage nach der Netzstabilität klammern solche Pamphlete grundsätzlich aus.

Es gilt ja nicht nur, sich gegen den Ausfall von Kraftwerken oder Leitungen einerseits und gegen plötzliche massive Bedarfsschwankungen auf Verbraucherseite andererseits zu wappnen. Nach der geltenden Gesetzlage ist dem Zufallsstrom aus Wind und Sonne grundsätzlich der Zugang zum Netz zu gewähren, wenn er denn anfällt. Dadurch werden immer häufiger Anpassungen der Leistung von Grundlastkraftwerken erforderlich. Für das Jahr 2013 vermeldeten die Netzbetreiber 2.687 solcher auch als „Redispatch“ bezeichneten Eingriffe, in 2014 waren es 3.455 und im vergangenen Jahr schon 6.322. Das ruft nicht nur spürbare Kosten hervor, es zeigt auch eine technisch bedingte absolute Ausbaugrenze für die volatilen Quellen auf. Denn wenn die „redispatch-fähigen“ konventionellen Kapazitäten nicht mehr ausreichen, werden die Schwankungen der Netzfrequenz das tolerierbare Maß regelmäßig übersteigen.

Ein neues Netz-Stabilitätskonzept ist nicht in Sicht

Gemäß der Erfahrungen mit dem deutschen Stromnetz hat ständig eine Kapazität in der Höhe von etwa einem Drittel der gesicherten Leistung (hierzulande derzeit 85 GW, bei erfolgreicher Umsetzung der Energiewende mindestens noch 42,5 GW) für die Trägheitsreserve und die Primärregelleistung zur Verfügung zu stehen. In Ländern, die nicht auf Vulkanen hocken und daher Geothermie nicht in großem Umfang nutzen können, begrenzt dies den Ausbau regenerativer Quellen auf die restlichen zwei Drittel. Für die volatile Stromproduktion allein wird der Wert aufgrund der oben geschilderten Redispatch-Erfordernisse noch etwas darunter liegen.

Internationale Studien (beispielsweise für Nordamerika und Irland) belegen die Möglichkeit, die Systemstabilität auch dann noch zu sichern, wenn Wind und Sonne gemeinsam 50% des Strombedarfes decken. Dieser Schwellenwert wurde in Deutschland im vergangenen Jahr bereits an etwa 20 Tagen erreicht, insbesondere in den Sommermonaten mit hohem Solarenergieaufkommen. Im Mittel hatten 2015 die unbeständigen Quellen einen Anteil von 19% an der Elektrizitätsproduktion. Die Energiepolitik der Bundesregierung sieht einen Wert von 57% bis 2050 vor und erfordert daher ein völlig neues Stabilitätskonzept. Von dem allerdings noch niemand weiß, wie es aussehen könnte.

Unterstützung
oder

Kommentare ( 11 )

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

11 Comments
neuste
älteste beste Bewertung
Inline Feedbacks
Alle Kommentare ansehen